检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过“云日志服务”控制台,进入日志主题界面,选择相应日志主题名称,在“原始日志”页签下,可查看访问日志。 日志显示格式如下,不支持修改日志格式。 图3 日志显示格式 查看访问日志 单击左侧导航栏“运营管理 > 访问日志”,查看集群访问日志。访问日志记录集群全部节点的日志,用户可以通过访问日
如图2所示,实例ID为6b88…2688,工作空间ID为1dd3bc…d93f0。 图2 获取实例ID和工作空间ID 在对应主题的操作栏,选择“添加订阅”。然后协议选择“短信”或“邮件”,输入接收告警通知的手机号或邮箱即可。 图3 添加订阅 购买技术资产数量增量包 单击已开通实例卡片上的“购买增量包”。
1000条且少于3MB 无限制 Hive 1000 1000条且少于3MB 10000条或3MB DWS 1000 1000条且少于3MB 10000条或3MB Spark 1000 1000条且少于3MB 10000条或3MB RDS 1000 1000条且少于3MB 不支持 Doris
splitNestedField 否 Boolean 选择是否将nested字段的json内容拆分,例如:将“a:{ b:{ c:1, d:{ e:2, f:3 } } }” 拆成三个字段“a.b.c”、“a.b.d.e”、“a.b.d.f”。 fromJobConfig.queryString 否
如:alter table test add column t_col varchar(30) not null default '' 3. migration作业产生异常,报错执行DDL失败,失败原因为:column "t_col" contains null values。
故发现该问题为赋值数组下标设置错误导致,需重新设置。 图2 原有参数配置 解决方案 修改字段赋值为a[1],提交作业版本重新启动即可。 图3 设置目标表的赋值参数 父主题: 数据集成(实时作业)
com/huaweicloud/huaweicloud-sdk-go-v3/core/auth/basic" dataartsstudio "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/dataartsstudio/v1"
可单击属性后的“删除”按钮进行删除。 Apache HBase 连接Apache Hadoop上的HBase数据源时,相关参数如表3所示。 表3 Apache HBase连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。
Keytab文件获取方式 MRS集群 MRS HDFS MRS HBase MRS Hive MRS Hudi MRS ClickHouse 针对MRS 3.x版本集群: 登录FusionInsight Manager。 选择“集群 > > 待操作的集群名称 > 概览 > 更多 > 下载客户端”,界面显示“下载集群客户端”对话框。
的时间。 结束时间:该参数是可选参数,表示停止自动执行的时间。如果不配置,则表示一直自动执行。 图3 重复周期为天 例如上图表示:从2023年1月1日0时0分开始第一次自动执行,每3天自动执行一次,配置一直有效。 周 CDM支持配置每几周执行一次作业。 重复周期(周):表示从开始时间起,每多少周执行一次定时任务。
主题域中文名,只读,创建和更新时无需填写。 l3 String 业务对象中文名,只读,创建和更新时无需填写。 l1_id String 主题域分组ID,只读,ID字符串。 l2_id String 主题域ID,只读,创建和更新时无需填写。 l3_id String 业务对象ID,只读,ID字符串。
BIGINT TINYINT 用于存储有符号整数,精度为3,标度为0。 100 SMALLINT INT BINARY 用于存储定长二进制数据。 0x2A3B4058 不支持 FLOAT VARBINARY 用于存储可变长二进制数据。 0x2A3B4058 不支持 BINARY FLOAT 用于存储带二进制精度的浮点数。
在脚本目录中选择需要重命名的脚本,右键单击脚本名称,选择“重命名”。 图2 重命名 已经打开了的脚本文件不支持重命名。 在弹出的“重命名脚本名称”页面,配置新脚本名称。 图3 重命名脚本名称 单击“确定”,重命名脚本。 父主题: (可选)管理脚本
键单击脚本或脚本文件夹名称,选择“移动”。 图1 移动 在弹出的“移动脚本”或“移动目录”页面,配置如表1所示的参数。 图2 移动脚本 图3 移动目录 表1 移动脚本/移动目录参数 参数 说明 选择目录 选择脚本或脚本目录要移动到的目录,父级目录默认为根目录。 单击“确定”,移动脚本/移动目录。
ne仓库。 GitHub开源仓库地址:https://github.com/jupyterlab/extension-examples 图3 输入有效的GitHub开源仓库地址 Clone仓库的过程中会将进度展示出来。 图4 Clone仓库的过程 Clone仓库成功。 异常处理
支持的源端和目的端数据库版本 表1 支持的数据库版本 源端数据库 目的端数据库 Oracle数据库(10、11、12、19版本) Kafka集群(2.7、3.x版本) 数据库账号权限要求 在使用Migration进行同步时,源端和目的端所使用的数据库账号需要满足以下权限要求,才能启动实时同步任务
com/huaweicloud/huaweicloud-sdk-go-v3/core/auth/basic" dataartsstudio "github.com/huaweicloud/huaweicloud-sdk-go-v3/services/dataartsstudio/v1"
重名策略 SKIP:跳过 OVERWRITE:覆盖 默认值是SKIP。 jobsParam 否 List<JobParam> 指定作业参数,参考表3。 executeUser 否 String 执行作业的用户。 targetStatus 否 String 在开启审批开关后,需要填写该字段
规格如表1所示。 表1 CDM集群规格 实例类型 核数/内存 最大带宽/基准带宽 并发作业数 适用场景 cdm.large 8核/16G 3/0.8 Gbps 16 单表规模≥1000万条。 cdm.xlarge 16核/32G 10/4 Gbps 32 适合10GE高速带宽进行TB以上的数据量迁移。
如图2所示,实例ID为6b88…2688,工作空间ID为1dd3bc…d93f0。 图2 获取实例ID和工作空间ID 在对应主题的操作栏,选择“添加订阅”。然后协议选择“短信”或“邮件”,输入接收告警通知的手机号或邮箱即可。 图3 添加订阅 购买数据模型数量增量包 单击已开通实例卡片上的“购买增量包”。