检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
近创建的保存点恢复。 当“resume_savepoint”为“false”时,表示不恢复正常启动。 默认为“false”。 响应消息 表3 响应参数说明 参数名称 是否必选 参数类型 说明 数组元素 否 Array of Objects 返回的响应消息组。具体请参考表4。 表4
规则名称。 offset 否 Integer 分页偏移量。 limit 否 Integer 分页个数。 请求参数 无 响应参数 状态码: 201 表3 响应Body参数 参数 参数类型 描述 rules Array of SqlDefendRuleDto objects 用户自定义规则信息。
中的“表3 日期及时间模式字符定义”。 2000-01-01 时间戳格式 当“文件格式”为“CSV”和“JSON”时此参数有效。 选中“高级选项”,该参数表示表中时间戳的格式,默认格式为“yyyy-MM-dd HH:mm:ss”。时间戳格式字符定义详见加载数据中的“表3 日期及时间模式字符定义”。
步骤1:创建弹性资源池并添加队列:创建DLI作业运行的队列。 步骤2:创建Kafka的Topic:创建Kafka生产消费数据的Topic。 步骤3:创建Elasticsearch搜索索引:创建Elasticsearch搜索索引用于接收结果数据。 步骤4:创建增强型跨源连接:DLI上创建
中作为只读(虚拟)meta 列声明。 表3 元数据 Key 数据类型 说明 table_name STRING NOT NULL 当前记录所属的表名称。 database_name STRING NOT NULL 当前记录所属的库名称。 op_ts TIMESTAMP_LTZ(3) NOT NULL
1 as id, 'a1' as name, 10 as price, 1000 as dt; 创建非分区表 create table h3 using hudi options (type = 'cow', primaryKey = 'id', preCombineField =
致,因而,也可以通过Flink作业列表“操作”列中的“更多”>“导入保存点”,导入OBS中最新成功的Checkpoint,并从中恢复。 图3 停止作业 图4 恢复保存点 父主题: Flink作业性能调优类
选择待查询的SQL作业,单击操作列的“更多 > 归档日志”。 系统自动跳转至DLI作业桶日志路径下。 选择需要查看的日期,单击操作列的“ 下载”,下载SQL作业日志到本地。 图3 下载SQL作业日志 父主题: 在DLI管理控制台提交SQL作业
smn_adm:使用SMN(消息通知服务)的SMN Administrator权限。 te_admin:具有Tenant Administrator权限。 响应消息 表3 响应参数 参数名称 是否必选 参数类型 说明 is_success 否 Boolean 请求执行是否成功。“true”表示请求执行成功。 message
每页显示的返回信息的个数,默认值为“100”。 offset 否 Integer 偏移量,默认值为“0”。 请求消息 无请求参数。 响应消息 表3 响应参数说明 参数名称 是否必选 参数类型 说明 is_success 否 Boolean 执行请求是否成功。“true”表示请求执行成功。
'random', --为字段user_id指定random生成器 'fields.user_id.length' = '3', --限制字段user_id长度为3 'fields.amount.kind' = 'sequence', --为字段amount指定sequence生成器
加载时检查间隔异常。 sink.max-retries 3 否 将记录写入数据库失败时的最大重试次数。 sink.buffer-size 256 * 1024 否 缓存流加载数据的缓冲区大小。 sink.buffer-count 3 否 缓存流加载数据的缓冲区计数。 sink.enable-delete
说明 1 新建Maven工程,配置pom文件 IntelliJ IDEA 参考操作步骤说明,编写UDF函数代码。 2 编写UDF函数代码 3 调试,编译代码并导出Jar包 4 上传Jar包到OBS OBS控制台 将生成的UDF函数Jar包文件上传到OBS目录下。 5 创建DLI的UDF函数
展示。 sub_jobs 否 Array of Object 正在运行作业的子作业的详细信息,一个作业可能包含多个子作业。具体请参考表3。 表3 sub_jobs参数说明 参数名称 是否必选 参数类型 说明 id 否 Integer 子作业ID,对应开源spark JobData的jobId。
查询增强型跨源连接:确认增强型跨源连接创建成功。 操作步骤 创建弹性资源池elastic_pool_dli 接口相关信息 URI格式:POST /v3/{project_id}/elastic-resource-pools {project_id}信息请从获取项目ID获取。 请求参数说明详情,请参见创建弹性资源池。
job-id 否 String 参数解释: 根据作业ID查询批作业。示例: 03923a72-5ace-466a-a573-e8c7b08b8cf3 约束限制: 无 取值范围: 无 默认取值: 无 cluster_name 否 String 参数解释: DLI队列名称,不填写则获取当前P
单击外部数据源所属的安全组名称,进入安全组详情界面。 在“入方向规则”页签中添加放通队列网段的规则。如图2所示。 详细的入方向规则参数说明请参考表3。 图2 添加入方向规则 表3 入方向规则参数说明 参数 说明 取值样例 优先级 安全组规则优先级。 优先级可选范围为1-100,默认值为1,即最高优先级。优先级数字越小,规则优先级级别越高。
步骤1:上传数据至OBS 使用DLI查询数据前,需要将数据文件上传至OBS中。 步骤2:创建弹性资源池并添加队列 创建提交作业所需的计算资源。 步骤3:创建数据库 DLI元数据是SQL作业开发的基础。在执行作业前您需要根据业务场景定义数据库和表。 步骤4:创建表 数据库创建完成后,需要在数
resource_config 否 Object Flink 作业的资源配置。 具体参数说明请参考表3。 资源配置版本 为 "v2"时,配置生效,资源配置版本 为 "v1"时,配置无效。 表3 resource_config参数说明 参数名称 是否必选 参数类型 说明 max_slot
Driver。该驱动为默认,创建表时可以不填该驱动参数。 例如,使用gsjdbc4驱动连接、upsert模式写入数据到DWS中。 1 2 3 4 5 6 7 8 9 10 11 12 13 create table dwsSink( car_id STRING,