检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
warehouseId _c1 city1 15 city2 10 city3 19 父主题: 聚合函数
代表需要处理的日期。 格式为: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 返回值说明 返回INT类型。 date非DATE或STRING类型时,返回报错,错误信息:data type mismatch。 date
代表需要处理的日期。 格式为: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 返回值说明 返回INT类型。 date非DATE或STRING类型时,返回报错,错误信息:data type mismatch。 date
+------------+------------+ | city1 | 1.23124 | | city2 | 1.23344 | | city3 | 1.43425 | +------------+------------+ 父主题: 聚合函数
DATE或STRING 需要处理的日期。 格式: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 返回值说明 返回INT类型的值。 周一作为一周的第一天,返回值为0。其他日期依次递增,周日返回6。 date非DATE或STRING类型时,返回报错,错误信息:data
DATE或STRING 需要处理的日期。 格式: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 返回值说明 返回INT类型的值。 date非DATE或STRING类型时,返回报错,错误信息:data type mismatch。 da
DATE或STRING 需要处理的日期。 格式: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 返回值说明 返回INT类型的值。 date非DATE或STRING类型时,返回报错,错误信息:data type mismatch。 da
URL_DECODE:// dsf(fasfs)。 select url_decode('Example+for+url_decode+%3A%2F%2F+dsf%28fasfs%29', 'GBK'); 父主题: 其他函数
//指定bucket桶数 'compaction.delta_commits' = '3', //compaction生成的commit间隔 'compaction
SDK概述配置Java SDK环境。 已参考初始化DLI客户端完成客户端DLIClient的初始化。 AK/SK认证方式样例代码 代码样例 1 2 3 4 5 6 String ak = System.getenv("xxx_SDK_AK");//访问密钥ID。 String sk
扩容或者缩容的cu数。“action”为“scale_out”或者“scale_in”时可选择配置。“cu_count”必须是16的倍数。 响应消息 表3 响应参数 参数名称 是否必选 参数类型 说明 is_success 否 Boolean 请求执行是否成功。“true”表示请求执行成功。 message
Flink作业模板的标签。具体请参考表3。 job_type 否 String Flink作业模板类型。默认值为"flink_sql_job",若填写则只能为"flink_sql_job"或者"flink_opensource_sql_job"。 表3 tags参数 参数名称 是否必选
执行失败时,用于显示执行失败的原因。 sqls Array of Object 样例模板信息,具体参数说明请参见表3。 sqlCount Integer 样例模板个数。 表3 sqls参数说明 参数 参数类型 说明 lang String 语言。 name String 样例模板名称。
trans_array (<num_keys>, <separator>, <key1>,<key2>,…,<col1>,<col2>,<col3>) as (<key1>,<key2>,...,<col1>, <col2>) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 num_keys
文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 代码实现 导入依赖 涉及到的mvn依赖库 1 2 3 4 5 <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2
一条数据 insert overwrite test_part (id, alias, dept_id, status) values (3, 'uvw', 25, 'overwrite'); select * from test_part ; id | alias | dept_id
检查队列的网段是否与数据源网段是否重合 绑定跨源的DLI队列网段和数据源网段不能重合。 您可以从连接日志判断是否是队列与数据源网段冲突。 如图3所示,即当前队列A网段与其他队列B网段冲突,且队列B已经建立了与数据源C的增强型跨源连接。因此提示队列A与数据源C的网段冲突,无法建立新的增强型跨源连接。
文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 代码实现 导入依赖 涉及到的mvn依赖库 1 2 3 4 5 <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2
只适用于“用户授权”的权限包括: 显示表:显示当前表。 View具体权限说明请参考表3。 View只能通过SQL语句进行创建,不能通过“创建表”页面进行创建。 图6 View用户授权 图7 View项目授权 表3 参数配置 参数 描述 授权选择 选择“用户授权”或“项目授权”。 用户名/项目
组获取对应数据源的安全组名称。 在“入方向规则”页签中添加放通队列网段的规则。如图2所示。 详细的入方向规则参数说明请参考表3。 图2 添加入方向规则 表3 入方向规则参数说明 参数 说明 取值样例 优先级 安全组规则优先级。 优先级可选范围为1-100,默认值为1,即最高优先级。优先级数字越小,规则优先级级别越高。