华为云用户手册

  • 创建OBS桶并上传jar包 在华为云OBS创建一个存储桶,并将数据迁移过程中所依赖的 Java 文件(jar包)上传至该OBS桶。创建OBS桶的方法请参考创建桶。上传文件的方法请参考上传对象。 数据迁移所依赖的jar包分别为:migration-dli-spark-1.0.0.jar、fastjson-1.2.54.jar、datasource.jar。这三个jar包是数据迁移过程中不可或缺的,三个jar包的用途和获取方法如下: migration-dli-spark-1.0.0.jar 用途:用于创建spark会话并提交sql语句。 获取方法:在迁移工具Edge所部署主机的“/opt/cloud/Edge/tools/plugins/collectors/bigdata-migration/dliSpark”路径下获取。 fastjson-1.2.54.jar: 用途:用于处理JSON格式的数据交换。 获取方法:在迁移工具Edge所部署主机的“/opt/cloud/Edge/tools/plugins/collectors/bigdata-migration/deltaSpark”路径下获取。 datasource.jar: 用途:包含数据源的配置和连接逻辑,允许服务连接到不同的数据库或数据存储系统。 获取方法:需要您根据需求自行获取并编译,方法请参考Spark Connector。
  • 购买E CS 购买ECS:在与目的端 DLI 同一区域(Region)下购买一台Linux系统的ECS主机,购买方法请参考购买弹性云服务器。其中网络配置选择上一步创建的虚拟私有云和子网。该ECS主机还需要满足以下条件: 可以访问外网(公网),并检查是否能够访问MgC和IoTDA服务的 域名 ,具体需要检查的域名请查看域名列表。 安全组的出方向规则中,需要包含8883端口。 操作系统为:CentOS 8.x。 推荐规格不小于8U16G。 创建并绑定EIP:ECS主机要实现访问外网,需要配置EIP(弹性公网IP)。如果主机已绑定EIP则跳过该操作无需重复绑定;如果未绑定EIP请参考申请EIP和将EIP绑定至ECS进行绑定。 计费模式:建议选择按需计费。 带宽大小:推荐5 Mbit/s。
  • 安装迁移工具Edge并连接迁移中心 安装Edge工具:在购买的ECS主机上,安装用于配合数据校验的工具Edge,方法请参见安装Linux版本的Edge工具。 注册Edge用户:在浏览器中访问Linux主机的网卡IP地址+端口(27080),如:https://x.x.x.x:27080。首次访问后会进入注册页面,分别输入用户名、密码,确认密码无误后,单击《隐私政策声明》,仔细阅读后,勾选“我已阅读并同意”,最后单击“确认”即可完成注册。 连接迁移中心:安装并注册成功后,将Edge与迁移中心进行连接,连接方法请参考连接迁移中心。 迁移工具Edge不具备自动重启功能,严禁在任务执行期间重启Edge,以避免任务失败。
  • 自定义参数说明 在目的端配置中,支持配置的自定义参数及说明请参见表1和conf参数说明。 表1 支持的自定义参数说明 参数名称 取值范围 说明 是否必填 spark.dli.metaAccess.enable - 填写true。 是 spark.dli.job.agency.name 填写DLI委托权限名称。 mgc.mc2dli.data.migration.dli.file.path 填写存放migration-dli-spark-1.0.0.jar包的OBS路径。例如:obs://mgc-test/data/migration-dli-spark-1.0.0.jar mgc.mc2dli.data.migration.dli.spark.jars 填写存放fastjson-1.2.54.jar和datasource.jar包的OBS路径,以数组形式传入,路径带双引号,以英文逗号隔开。例如:["obs://mgc-test/data/datasource.jar","obs://mgc-test/data/fastjson-1.2.54.jar"] spark.sql.catalog.mc_catalog.tableWriteProvider 填写tunnel 专线迁移场景为必填 spark.sql.catalog.mc_catalog.tableReadProvider 填写tunnel spark.hadoop.odps.end.point 填写源端MaxCompute服务所在地域的VPC网络Endpoint信息。各地域VPC网络Endpoint信息请参考Endpoint对照表。例如:源端所在地域为“香港”,则填写“http://service.cn-hongkong.maxcompute.aliyun-inc.com/api” spark.hadoop.odps.tunnel.end.point 填写源端MaxCompute服务所在地域的VPC网络Tunnel Endpoin信息。各地域VPC网络Tunnel Endpoin信息请参考Endpoint对照表。例如:源端所在地域为“香港”,则填写“http://dt.cn-hongkong.maxcompute.aliyun-inc.com” spark.hadoop.odps.tunnel.quota.name - 填写访问MaxCompute使用的Quota名称。 否 sc_type A、B、C 计算资源类型,目前指定参数A, B, C。如果不指定,则按最小类型创建。 A:(8核32G内存,driverCores:2,executorCores:1,driverMemory:7G,executorMemory:4G,numExecutor:6) B:(16核64G内存,driverCores:2,executorCores:2,driverMemory:7G,executorMemory:8G,numExecutor:7) C:(32核128G内存,driverCores:4,executorCores:2,driverMemory:15G,executorMemory:8G,numExecutor:14) 否 executorCores 1- 4 Spark应用每个Executor的CPU核数。该配置项会替换“sc_type”中对应的默认参数。 numExecutors 1-100 Spark应用Executor的个数。该配置项会替换“sc_type”中对应的默认参数。 executorMemory 1-16 G Spark应用的Executor内存,参数配置例如:2G, 2048M。该配置项会替换“sc_type”中对应的默认参数,使用时必须带单位,否则会启动失败。 driverCores 1-4 Spark应用Driver的CPU核数。该配置项会替换“sc_type”中对应的默认参数。 driverMemory 1-16 G Spark应用的Driver内存,参数配置例如:2G, 2048M。该配置项会替换“sc_type”中对应的默认参数,使用时必须带单位,否则会启动失败。 父主题: 大数据数据迁移
  • 约束与限制 MaxCompute不支持datetime类型数据格式,在迁移之前,需要将所有datetime类型的字段转换为字符串(STRING)格式。 MaxCompute不支持varchar和char类型字段,在迁移之前,需要将所有varchar和char类型的字段转换为字符串(STRING)格式。 元数据迁移不支持事务表(即DDL中带有transactional=true字段的表)。 由于阿里云最近更新了timestamp_ntz字段类型,目前该字段类型尚未被阿里云SDK所兼容支持,这一兼容性问题导致SDK无法识别并读取该字段,从而使该字段所在的表元数据迁移失败。
  • 注意事项 CSV模板文件编辑 当使用MgC提供的CSV模板文件进行数据筛选时,请不要使用Excel对CSV模板文件进行编辑,通过Excel编辑并保存的模板文件无法被MgC识别。 DLI队列连接选择 元数据迁移和数据迁移需要使用不同的DLI队列连接,元数据迁移需要使用DLI SQL队列连接,数据迁移需要使用DLI 通用队列连接。配置错误的队列连接类型会导致迁移任务失败,因此在配置任务时,必须仔细检查并确保任务类型与队列类型相匹配。 元数据迁移与库的数量 在进行元数据迁移时,MgC会根据识别到的源端数据库的数量,在DLI中自动创建相应的库。如果是整库迁移,通常只会创建一个库;而表迁移可能需要创建多个库。通常,DLI的库数量上限为10。如果DLI空间不足,可能会导致元数据迁移失败,因此在元数据迁移前,需要评估源端库的数量,确保DLI有足够的空间来创建新的库。
  • 查看任务状态和详情 在资源采集页面,单击任务总数后的“查看”,进入任务列表页面。 图4 查看任务列表 单击采集任务操作列的“查看”,进入任务详情页面,可以查看到该任务包含的采集项。 单击采集项前的按钮,可以查看该采集项包含的采集数据源以及各资源类型的采集结果。 图5 采集结果 如果有采集失败的数据源,可以将鼠标放到数据源的采集状态上,查看失败原因。 在采集结果列,单击资源类型后的数量,可以跳转到对应的资源类型列表页面。
  • 数据库深度采集 当前支持对AWS RDS(包括MySQL、MariaDB、Aurora、Postgre SQL、SQL Server、Oracle)和AWS DocumentDB数据库进行深度采集,以获取包括数据库版本、引擎、服务器字符集、平均事务每秒(Transaction Per Second, TPS)和查询每秒(Query Per Second, QPS)等关键性能指标在内的详细信息。不同的数据库类型,采集的信息详情可能有所差异。 在源端内网环境中或在可以访问到源端数据库的网络环境中安装Edge工具并与迁移中心连接。 在资源采集页面的资源列表,单击数据库资源的资源数量,进入资源列表页面的数据库页签。 在数据库资源列表中,通过平台类型过滤出采集到的所有AWS数据库资源,在支持深度采集的数据库类型的采集设备列,单击“绑定”,弹出绑定采集设备窗口。 如果需要批量绑定,可以同时勾选多个资源,单击页面右上角的“绑定采集设备”,弹出绑定采集设备窗口。 选择源端安装的Edge工具,以及网络接入方式(如果采集的资源与安装Edge的主机处于同一VPC内,可以选择私网接入,否则需要选择公网接入),单击“确定”。绑定成功后,资源的采集设备列状态会变为已绑定。 采集设备绑定成功后,还需要为资源绑定凭证,单击资源凭证列的“绑定”,弹出绑定凭证窗口。 选择数据库资源凭证,如未提前在Edge上添加源端资源凭证,请前往Edge控制台添加,并同步至迁移中心。 单击“确定”,系统会自动检查凭证绑定状态。当深度采集列的状态为就绪时,单击“采集”开始深度采集。首次深度采集完成/采集失败后,可以单击深度采集列的“重新采集”,进行多次深度采集。 深度采集完成后,单击数据库名称,进入数据库详情页面,在数据库详情区域,可以查看采集到的详细信息。
  • 容器深度采集 请按照以下步骤对容器资源进行深度采集。 在源端内网环境中安装Edge工具并与迁移中心连接。 在资源采集页面的资源列表,单击容器资源的资源数量,进入资源列表页面的容器页签。 在需要进行深度采集的容器采集设备列,单击“绑定”,弹出绑定采集设备窗口。 如果需要批量绑定,可以同时勾选多个资源,单击列表上方的“绑定采集设备”,弹出绑定采集设备窗口。 选择源端安装的Edge工具,单击“确定”。绑定成功后,资源的采集设备列状态会变为已绑定。 采集设备绑定成功后,还需要为资源绑定凭证,单击资源凭证列的“绑定”,弹出绑定凭证窗口。 选择资源凭证,如未提前在Edge上添加源端资源凭证,请前往Edge控制台添加,并同步至迁移中心。 单击“确定”,系统会自动检查凭证绑定状态。当深度采集列状态为就绪时,单击深度采集列的“采集”进行深度采集。首次深度采集完成后,可以单击采集状态列的“重新采集”按钮,进行多次深度采集。采集完成后,单击资源名称可以查看采集到的容器详情。
  • 主机深度采集 请按照以下步骤对主机资源进行深度采集。 在源端内网环境中安装Edge工具并与迁移中心连接。 在资源采集页面的资源列表,单击主机资源的资源数量,进入资源列表页面的主机页签。 在需要进行深度采集的主机采集设备列,单击“配置”,弹出配置窗口。根据表4,配置参数。 表4 深度采集参数配置说明 参数 配置说明 类型 根据实际的主机操作系统类型选择。 采集设备 选择在源端环境安装的Edge工具。 接入IP 选择主机接入IP,可以为公网IP,也可以是私有IP;迁移预检查通过后,该IP会作为后续 主机迁移 工作流的资源接入IP。 端口 主机开放端口。 Windows主机默认为5985端口,无法修改。 Linux主机默认22端口,可根据实际情况修改。 凭证 选择主机凭证,如未提前在Edge上添加源端主机凭证,请前往Edge控制台添加,并同步至迁移中心。 须知: 为确保采集过程具备充分的系统访问权限,从而能够获取到必要的信息和数据。对主机深度采集的凭证要求如下: 对Linux主机进行深度采集时,请添加Root账号和密码作为采集凭证。 对Windows主机进行深度采集时,请添加Administrator账号和密码作为采集凭证。 单击“确认”,采集设备和凭证都绑定成功后,系统会自动开始深度采集。当深度采集列的状态为“已采集”时,代表采集完成。可以进行下一阶段迁移方案设计或迁移方案配置。
  • 对象存储深度采集 通过深度采集获取对象存储资源的详细信息,以提高迁移集群规格评估的准确性。请按照以下步骤进行对象存储资源深度采集。 在源端内网环境中安装Edge工具并与迁移中心连接。 在资源采集页面的资源列表,单击存储资源的资源数量,进入资源列表页面的存储页签。 在对象存储资源列表中,单击深度采集配置列的“配置”,弹出配置窗口。 选择源端安装的Edge工具和相应的资源凭证,单击“确认”完成配置。如未提前在Edge上添加源端资源凭证,请前往Edge控制台添加,并同步至迁移中心。 在对Azure云平台对象存储资源进行深度采集时,需要使用“存储账户”和“密钥”作为采集凭证,凭证的获取方法请参见如何获取Azure对象存储深度采集所需凭证。 配置完成后,单击操作列的“添加前缀”,弹出添加前缀窗口。 输入指定的资源目录路径进行采集,不输入则默认采集全桶资源,单击“确定”保存前缀设置。 完成深度采集配置和添加前缀后,单击操作列的“深度采集”,系统开始进行对象存储资源的深度采集。支持进行多次深度采集。当采集状态为采集完成后,单击资源名称,可以查看采集到的信息。
  • 使用须知 开始采集后,默认每5分钟进行一次数据采集。 建议采集时长≥1小时,若采集时长不足,将无法获取7天和30天最大值以及平均值数据。 采集周期默认为7天,7天后会自动停止采集;采集周期内可以进行停止采集和重启采集操作;重启采集后,采集周期重新计算。 采集到的性能数据将保留180天,超期后会自动删除。 迁移工具Edge建议安装在独立主机上,避免与业务主机共用,以确保采集的稳定性和效率。 Linux主机:迁移工具Edge最多同时采集1000台Linux主机。当同时采集1000台Linux主机时,安装Edge的主机规格最低要求为8U16G,且可使用内存不小于8G。 Windows主机:迁移工具Edge最多同时采集500台Windows主机,当同时采集500台Windows主机时,安装Edge的主机规格最低要求为16U32G,且可使用内存不小于8G。
  • 概述 通过问卷调研的方式,基于华为云专业服务多年的经验积累,为您提供全面的源端架构梳理及资源分析功能。 支持调研的架构包括: 运维架构调研:识别客户在运维流程管理中的痛点与待改进空间,助力客户规划上云后的运维架构设计。 技术架构调研:通过技术架构调研问卷,全面了解客户的计算、存储、网络资源状况,为后续资源部署及云上网络规划奠定基础。 安全架构调研:识别出客户系统的安全风险,包括潜在的攻击面、漏洞及威胁,协助企业优化安全策略,强化访问控制与身份验证机制,提升系统安全性及员工安全意识。 业务架构调研:通过业务架构调研问卷,全面掌握业务需求与挑战,精准定位业务痛点,评估迁移风险,科学制定迁移计划,确保迁移项目的高成功率
  • 查看资源统计信息 当RVTools导入任务状态为“成功”时,在资源统计页面,可以查看VMware资源的统计信息,包括: 宿主机:CPU类型统计、宿主机个数统计、内存总量统计、已分配虚拟机内存、已分配占比、虚拟机总数统计、虚拟机运行总数统计、存储使用详情统计以及主机列表详情。 虚拟机:Windows操作系统个数统计、Linux系统个数统计、内存使用总容量、CPU使用核数、磁盘使用个数、磁盘容量占比、虚拟机数量、虚拟机列表、操作系统。
  • 配置主机购买模板 场景 委托对象 自定义策略名称 细粒度最小使用权限 配置主机购买模板 MgC MgC PurchaseTemplateAgencyPolicy iam:projects:listProjects(查询租户项目) eps:enterpriseProjects:list(查看企业项目列表) vpc:subnets:get(查询子网列表或详情) vpc:securityGroups:get(查询安全组列表或详情) vpc:vpcs:get(查询虚拟私有云详情)
  • 创建迁移集群 场景 委托对象 自定义策略名称 细粒度最小使用权限 创建迁移集群 OMS OMS ObsMigrationAgencyPolicy ecs:cloudServers:createServers(创建云服务器) ecs:cloudServers:listServerInterfaces(查询云服务器网卡信息) ecs:cloudServers:showServer(查询云服务器详情) ecs:cloudServers:deleteServers(删除云服务器) ecs:cloudServers:list(查询云服务器详情列表) nat:natGateways:create(创建NAT网关) nat:natGateways:get(查询NAT网关详情) nat:natGateways:delete(删除NAT网关) nat:snatRules:create(创建SNAT规则) nat:snatRules:get(查询SNAT规则详情) nat:dnatRules:list(查询DNAT规则列表) nat:snatRules:list(查询SNAT规则列表) nat:snatRules:delete(删除SNAT规则) nat:natGateways:list(查询NAT网关列表) vpc:securityGroups:create(创建安全组) vpc:securityGroups:delete(删除安全组) vpc:securityGroups:get(查询安全组列表或详情) vpc:securityGroupRules:create(创建安全组规则) vpc:securityGroupRules:get(查询安全组规则列表或详情) vpc:securityGroupRules:delete(删除安全组规则) vpcep:epservices:create(创建终端节点服务) vpcep:epservices:get(查询终端节点服务详情) vpcep:permissions:list(查询终端节点服务的白名单列表) vpcep:connections:list(查询连接终端节点服务的连接列表) vpcep:epservices:list(查询终端节点服务列表) vpcep:epservices:delete(删除终端节点服务) vpcep:connections:update(接受或拒绝终端节点的连接) vpcep:permissions:update(批量添加或移除终端节点服务的白名单) lts:topics:create(创建日志主题) lts:topics:delete(删除指定日志主题) lts:groups:create(创建日志组) lts:groups:get(查询指定日志组) lts:groups:delete(删除指定日志组) ECS ECS ObsMigrationAgencyPolicy apm:icmgr:*(apm采集组件的所有权限)
  • 跨可用区迁移 场景 委托对象 自定义策略名称 细粒度最小使用权限 跨可用区迁移 MgC MgC AzMigrationAgencyPolicy ecs:cloudServers:showServer(查询云服务器详情) ecs:flavors:get(查询云服务器规格) ecs:cloudServerFlavors:get(查询云服务器规格详情和扩展信息列表) ecs:cloudServerQuotas:get(查询租户配额) ecs:servers:list(查询云服务器列表) ecs:cloudServers:list(查询云服务器详情列表) ecs:servers:stop(关闭云服务器) ecs:cloudServers:listServerInterfaces(查询云服务器网卡信息) ecs:cloudServers:createServers(创建云服务器) ecs:cloudServers:listServerBlockDevices(查询弹性云服务器磁盘信息) ecs:cloudServerNics:update(云服务器网卡配置私有IP) ecs:availabilityZones:list(查询可用区列表) ecs:servers:start(启动云服务器) ecs:cloudServers:changeNetworkInterface(更新云服务器指定网卡属性) ecs:serverInterfaces:get (查询云服务器网卡) ecs:cloudServers:get(查询云服务器详情) vpc:publicIps:create(创建弹性公网IP) vpc:publicIps:update(更新弹性公网IP) vpc:subnets:get(查询子网列表或详情) vpc:networks:get(查询网络列表或详情) vpc:publicIps:list(查询弹性公网IP) vpc:publicIps:get(查询弹性公网IP详情) vpc:ports:get(查询端口列表或详情) vpc:ports:delete(删除端口) vpc:ports:update(更新端口) vpc:ports:create(创建端口) evs:types:get(查询云硬盘类型) evs:volumes:list(查询云硬盘列表) cbr:vaults:get(查询指定存储) cbr:vaults:list(查询存储库列表) cbr:vaults:create(创建存储库) cbr:vaults:addResources(添加资源) cbr:vaults:backup(执行备份) cbr:backups:list(查询备份列表) cbr:tasks:list(查询任务列表) cbr:tasks:get(查询单个任务) cbr:backups:delete(删除备份) cbr:backups:get(查询指定备份) cbr:vaults:delete(删除存储库) ims:wholeImages:create(制作整机镜像) ims:images:list(查询镜像列表) ims:images:delete(删除镜像) ims:images:get(查询镜像详情) ims:serverImages:create(制作镜像)
  • 规格评估 场景 委托对象 自定义策略名称 细粒度最小使用权限 规格评估 MgC MgC ServerAssessAgencyPolicy ecs:cloudServerFlavors:get(查询云服务器规格详情和扩展信息列表) ims:images:list(查询镜像列表) evs:types:get(查询云硬盘类型) deh:dedicatedHosts:get(获取专属主机详情) deh:dedicatedHosts:list(查询专属主机列表)
  • 购买资源 场景 委托对象 自定义策略名称 细粒度最小使用权限 购买资源 MgC MgC PurchaseAgencyPolicy eps:resources:add(企业项目资源迁入) ecs:cloudServers:createServers(创建云服务器) evs:volumes:list(查询云硬盘列表) ecs:cloudServerFlavors:get(查询云服务器规格详情和扩展信息列表) ecs:cloudServers:list(查询云服务器详情列表) vpc:publicIps:update(更新弹性公网IP) vpc:publicIps:create(创建弹性公网IP)
  • 主机迁移工作流 场景 委托对象 自定义策略名称 细粒度最小使用权限 主机迁移工作流 MgC MgC ServerMigrationAgencyPolicy ecs:cloudServers:showServer(查询云服务器详情) ecs:cloudServers:createServers(创建云服务器) sms:server:migrationServer(迁移源端服务器) sms:server:queryServer(查看源端服务器) ecs:cloudServers:list(查看云服务器列表) ecs:cloudServers:listServerBlockDevices(查询弹性云服务器磁盘信息) ecs:cloudServerQuotas:get(查询租户配额) vpc:publicIps:create(创建弹性公网IP) ecs:cloudServers:get(查询云服务器详情) ecs:cloudServers:changeVpc(云服务器切换虚拟私有网络) ecs:cloudServers:attach(弹性云服务器云主机挂载磁盘) ecs:cloudServers:start(批量启动云服务器) ecs:cloudServers:detachVolume(卸载指定弹性云服务器的磁盘) ecs:cloudServers:stop(批量关闭云服务器) ecs:servers:unlock(解锁定云服务器) evs:volumes:delete(删除云硬盘) evs:volumes:use(云硬盘挂载和卸载依赖) evs:volumes:get(查询单个云硬盘详情) vpc:privateIps:list(查询私有IP列表) ims:images:get(查询镜像详情)
  • 迁移方案配置 场景 委托对象 自定义策略名称 细粒度最小使用权限 主机标准迁移模板 - 导入OBS桶里的目的端配置 MgC MgC ImportTargetConfigurationAgencyPolicy obs:object:GetObject(获取对象内容、获取对象元数据) obs:bucket:ListBucket(列举桶内对象) obs:bucket:ListAllMyBuckets(获取桶列表) 主机标准迁移模板 - 导出支持的目的端配置 MgC ExportTargetConfigurationAgencyPolicy ims:images:list(查询镜像列表) ecs:cloudServerFlavors:get(查询云服务器规格详情和扩展信息列表) 对象存储批量迁移模板-配置目的端 MgC ListObsBucketsAgencyPolicy obs:bucket:ListBucket(列举桶内对象) obs:bucket:ListAllMyBuckets(获取桶列表)
  • 约束与限制 创建EMR Delta Lake到 MRS Delta Lake数据校验任务存在以下约束与限制: 源端EMR环境的Spark版本为3.3.1时,支持Delta Lake(有元数据)和Delta Lake(无元数据)的数据校验。 源端EMR环境的Spark版本为2.4.8时,仅支持Delta Lake(有元数据)的数据校验。 Hbase校验不支持纯冷数据表。 在进行Hive 2.x与Hive 3.x版本间数据校验时,由于Hive 2.x版本在查询固定长度字符串类型char(N)数据时,如果实际数据长度不满足N长度,Hive会以空格补齐至N长度。而Hive 3.x版本在查询时不会进行这种补齐操作。这可能导致在不同版本间比较结果时出现差异。为了避免因版本差异导致的数据不一致问题,建议使用Beeline作为客户端工具进行作业对数。 在进行ClickHouse数据校验时,如果源端阿里云的ClickHouse版本为21.8.15.7,目的端华为云的ClickHouse版本为23.3.2.37,由于这两个版本在处理IPv4和IPv6字段类型以及相关函数计算结果上存在差异,因此无法进行字段校验。 在执行Hive数据的日级别增量、小时级增量以及指定日期的校验时,如果分区字段为date类型,且分区值的格式不是标准的YYYY-MM-DD时,系统目前不支持对这种场景进行数据校验。
  • 注意事项 创建的源端统计任务和目的端统计任务的统计方式必须保持一致。 HBase安全集群任务与非安全集群任务不能同时执行。HBase安全集群需要加载认证信息,非安全集群连接时需要清除安全集群的认证信息,因此不能同时执行。 校验任务不支持跨天执行,执行过程中如果跨0点将导致校验结果异常,请合理规划任务以避免跨天运行。 当源端Lindorm服务因欠费被锁定时,虽然可以正常创建数据连接和校验任务,但由于服务锁定限制了数据访问和操作权限,最终会导致校验任务无法正常执行。在进行数据校验前,请确保Lindorm服务未因欠费被锁定,以避免权限问题。如果服务被锁定,请及时补缴费用以解除锁定。确认服务恢复正常后,重新尝试执行数据校验任务。
  • 查看资源统计信息 当RVTools导入任务状态为“成功”时,在资源统计页面,可以查看VMware资源的统计信息,包括: 宿主机:CPU类型统计、宿主机个数统计、内存总量统计、已分配虚拟机内存、已分配占比、虚拟机总数统计、虚拟机运行总数统计、存储使用详情统计以及主机列表详情。 虚拟机:Windows操作系统个数统计、Linux系统个数统计、内存使用总容量、CPU使用核数、磁盘使用个数、磁盘容量占比、虚拟机数量、虚拟机列表、操作系统。
  • 导出阿里云Redis实例 登录阿里云云数据库 Redis 版控制台。 在左侧导航栏选择“实例列表”,进入实例列表页面。在页面上方选择地域。 在实例列表页面左下方,展开,单击“选择全部”。 单击列表右上角的图标,在弹出的对话框中,勾选需要导出的信息。 单击“确定”。系统会将实例信息输出至CSV格式的文件并自动下载。 由于从阿里云导出的CSV文件内容格式不满足MgC解析标准,因此需要进行如下修改: 使用文件编辑器打开下载的资源清单CSV文件, 在表头行的末尾,添加一个英文逗号,然后保存文件。 例如,原始表头为: ID,Name,Quantity 修改后的表头应该是: ID,Name,Quantity,
  • 过滤策略说明 过滤策略参数填写通配符规则说明和约束说明参见表6。 表6 过滤策略参数说明 参数 说明 填写规则 约束说明 黑名单 命中黑名单规则,则文件不进行迁移/一致性对比。支持精确匹配和模糊匹配。 精确匹配 全路径精确匹配,填写文件绝对路径,特殊字符用反斜杠(\)转义。 注意: 配置黑、白名单注意事项: 如果文件存储服务地址是以冒号加斜杠(:/)结尾,请确保在黑、白名单中填写的路径是相对于挂载地址的绝对路径。 例如,文件存储服务地址为"192.1.1.1:/",挂载地址为"/mnt/turbo",则填写"/mnt/turbo"下的绝对路径。 挂载信息示例: [root@oms-cluster-ecs filter_test]# pwd/mnt/sts_turbo/mgc/filter_test[root@oms-cluster-ecs- filter_test]# lldrwxr-xr-x 2 root root 0 Aug 16 15:27 test2-rw-r--r-- 1 root root 5 Aug 16 15:27 test2.log 如果要使黑名单精确匹配以避免迁移"test2.log"文件,则应在黑名单中填写路径:/mgc/filter_test/test2.log 如果文件存储服务地址在冒号加斜杠(:/)之后还包含其他路径,配置黑、白名单时,除了填写挂载地址下的绝对路径外,还要加上文件存储服务地址:/之后的部分。 例如,文件存储服务地址为"192.1.1.1:/mgc-test",挂载地址为"/mnt/turbo",则填写"mgc-test+/mnt/turbo"下的绝对路径。 挂载信息示例: [root@oms-cluster-ecs execution-service]# cd /mnt/turbo/autotest/filter_test/[root@oms-cluster-ecs- filter_test]# ll-rw-r--r-- 1 root root 14 Aug 8 09:22 test1.logdrwxr-xr-x 1 root root 4096 Aug 8 09:22 test2-rw-r--r-- 1 root root 14 Aug 8 09:22 test2.log 如果要使黑名单精确匹配以避免迁移"test2"文件,则应在黑名单中填写路径:/mgc-test/autotest/filter_test/test2 模糊匹配 *匹配任何字符0个或者多个,但不匹配斜杠(/) 使用**匹配任何字符0个或者多个,包括斜杠(/) ?匹配除斜杠(/)之外的任何字符,只能匹配一个 {和}定义元素之间的选择:包含一个以逗号分隔的模式列表, 其中任何一种模式都可能匹配,可以包含通配符。 特殊字符可以在它们之前使用 \进行转义,\后面为通配符时,表示转义,否则表示\本身 除{ 和 } 以外,不能出现连续的规则符号,例如:***、*?、**?、?*、?**、*{*、*}*、*}?、?{*、{*}、{,}、{*,、 ,*}、,*,。 { 和 } 之间的模式,只能使用*做通配符。 { 和 } 之间的模式,不能有{}嵌套。 文件绝对路径在黑名单和白名单同时命中,则黑名单生效,即不做迁移。 需要配置多个匹配规则时,用英文分号隔开。 白名单 白名单为空时,迁移所有文件。 白名单不为空时,仅对绝对路径命中白名单规则的文件进行迁移/一致性对比。 时间段 配置时间段,根据配置,迁移最后修改时间在配置时间段内的文件或者文件夹。 开始时间和结束时间可以配置为空,为空时表示不限制,时间可以精确到分钟。 过滤策略场景规则示例以及举例见下表。 例如第一级目录为“test”,那么: NAS的路径格式为:“/test”。 OBS的路径格式为:“test”。 场景 NAS规则示例 OBS规则示例 说明 文件路径以xx结尾(特定后缀) /xx /**xx xx/**xx xx可以是包含*和?的表达式 根路径下第一层xx开始的文件 /xx* /testssss 匹配 /test/xx 不匹配 /xx* testssss 匹配 test/xx 不匹配 文件路径以xx开始 /xx** /xx/** xx** xx/** 文件名包含xx **xx* **xx* 文件路径包含xx **xx** **xx** 文件路径以xx开始,以yy结尾 /xx**yy xx**yy xx,yy可以是包含*和?的表达式 文件路径以xx,yy结尾(特定后缀) **{xx,yy} **{xx,yy} 文件名包含xx,yy **{xx,yy}* **{xx,yy}* 文件路径包含xx,yy **{xx,yy}** **{xx,yy}**
  • 约束与限制 MaxCompute不支持datetime类型数据格式,在迁移之前,需要将所有datetime类型的字段转换为字符串(STRING)格式。 MaxCompute不支持varchar和char类型字段,在迁移之前,需要将所有varchar和char类型的字段转换为字符串(STRING)格式。 元数据迁移不支持事务表(即DDL中带有transactional=true字段的表)。 由于阿里云最近更新了timestamp_ntz字段类型,目前该字段类型尚未被阿里云SDK所兼容支持,这一兼容性问题导致SDK无法识别并读取该字段,从而使该字段所在的表元数据迁移失败。
  • 注意事项 CSV模板文件编辑 当使用MgC提供的CSV模板文件进行数据筛选时,请不要使用Excel对CSV模板文件进行编辑,通过Excel编辑并保存的模板文件无法被MgC识别。 DLI队列连接选择 元数据迁移和数据迁移需要使用不同的DLI队列连接,元数据迁移需要使用DLI SQL队列连接,数据迁移需要使用DLI 通用队列连接。配置错误的队列连接类型会导致迁移任务失败,因此在配置任务时,必须仔细检查并确保任务类型与队列类型相匹配。 元数据迁移与库的数量 在进行元数据迁移时,MgC会根据识别到的源端数据库的数量,在DLI中自动创建相应的库。如果是整库迁移,通常只会创建一个库;而表迁移可能需要创建多个库。通常,DLI的库数量上限为10。如果DLI空间不足,可能会导致元数据迁移失败,因此在元数据迁移前,需要评估源端库的数量,确保DLI有足够的空间来创建新的库。
  • 导出阿里云Redis实例 登录阿里云云数据库 Redis 版控制台。 在左侧导航栏选择“实例列表”,进入实例列表页面。在页面上方选择地域。 在实例列表页面左下方,展开,单击“选择全部”。 单击列表右上角的图标,在弹出的对话框中,勾选需要导出的信息。 单击“确定”。系统会将实例信息输出至CSV格式的文件并自动下载。 由于从阿里云导出的CSV文件内容格式不满足MgC解析标准,因此需要进行如下修改: 使用文件编辑器打开下载的资源清单CSV文件, 在表头行的末尾,添加一个英文逗号,然后保存文件。 例如,原始表头为: ID,Name,Quantity 修改后的表头应该是: ID,Name,Quantity,
  • 列举节点和迁移节点安全组配置 方向 优先级 策略 类型 协议端口 目的地址/源地址 描述 入方向 1 允许 IPv6 全部 Master节点安全组 允许列举和迁移节点与Master通信 入方向 1 允许 IPv4 全部 Master节点安全组 允许列举和迁移节点与Master通信 入方向 1 允许 IPv4 全部 列举和迁移节点安全组 允许安全组内的虚拟机通信 入方向 1 允许 IPv6 全部 列举和迁移节点安全组 允许安全组内的虚拟机通信 出方向 1 允许 IPv4 全部 0.0.0.0/0 放通出方向流量,实现和源端通信 出方向 1 允许 IPv6 全部 ::/128 放通出方向流量,实现和源端通信 出方向 1 允许 IPv6 全部 Master节点安全组 允许列举和迁移节点与Master通信 出方向 1 允许 IPv4 全部 Master节点安全组 允许列举和迁移节点与Master通信
共100000条
提示

您即将访问非华为云网站,请注意账号财产安全