检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
转换操作。算子的选择和参数设置具体请参考Loader算子帮助及表3。 表3 算子输入、输出参数设置 输入类型 输出类型 CSV文件输入 Hive输出 HTML输入 Hive输出 固定宽度文件输入 Hive输出 图3 算子操作方法示意 设置数据保存信息并运行作业 单击“下一步”,进
单击“下一步”,进入“转换”界面,设置数据传输过程中的转换操作。算子的选择和参数设置具体请参考Loader算子帮助及表3。 表3 算子输入、输出参数设置 输入类型 输出类型 表输入 Hive输出 图3 算子操作方法示意 设置数据保存信息并运行作业 单击“下一步”,进入“输出设置”界面,在“存储类型”选择“HIVE”,设置数据保存方式。
配置项 说明 hoodie.datasource.write.partitionpath.field 配置为多个分区字段,例如:p1,p2,p3。 hoodie.datasource.hive_sync.partition_fields 和hoodie.datasource.write
17:45:08'); INSERT INTO warehouse_t1 VALUES(1314, 123, 'name3', 2324, 123, 'STREET_NAME3', '12', '12', 'guangzhou', 'zhongguo', '1', '12', 'zn',
fit.d1.s2,root.fit.d2.s1,root.fit.d2.s3,root.fit.p.s1 1,100,hello,200,300,400 2,500,world,600,700,800 3,900,"hello, \"world\"",1000,1100,1200
在Spark样例工程代码中,不同的样例工程,使用的认证代码不同,基本安全认证或带ZooKeeper认证。样例工程中使用的示例认证参数如表3所示,请根据实际情况修改对应参数值。 表3 参数描述 参数 示例参数值 描述 userPrincipal sparkuser 用户用于认证的账号Principa
union all select 3; select * from t1; +----------+ | t1.col1 | +----------+ | 1 | | 1 | | 2 | | 2 | | 3 | +----------+
在Spark样例工程代码中,不同的样例工程,使用的认证代码不同,基本安全认证或带ZooKeeper认证。样例工程中使用的示例认证参数如表3所示,请根据实际情况修改对应参数值。 表3 参数描述 参数 示例参数值 描述 userPrincipal sparkuser 用户用于认证的账号Principal,您可以联系管理员获取此账号。
当的HDFS写策略导致业务故障。此时需要平衡节点磁盘间的数据密度,防止异构的小磁盘成为该节点的性能瓶颈。 约束与限制 本章节适用于MRS 3.x及之后版本。 DiskBalancer磁盘均衡只支持同类型磁盘之间的数据移动,例如SSD->SSD,DISK->DISK等。 执行该特性
$configFile ]; then echo $configFile" is not exist." exit 3 fi defaultValue="$2" cnt=$(grep $1 $configFile | wc -l)
17:45:08'); INSERT INTO warehouse_t1 VALUES(1314, 123, 'name3', 2324, 123, 'STREET_NAME3', '12', '12', 'guangzhou', 'zhongguo', '1', '12', 'zn',
单击“下一步”,进入“转换”界面,设置数据传输过程中的转换操作。算子的选择和参数设置具体请参考Loader算子帮助及表3。 表3 算子输入、输出参数设置 输入类型 输出类型 CSV输入 表输出 图3 算子选择 设置数据保存信息并运行作业 单击“下一步”,进入“输出设置”界面,设置数据保存方式。 表4
量包。 图3 创建CMD集群 步骤3:创建MRS Hive数据连接 在DataArts Studio实例概览信息页面,选择当前工作空间下的“管理中心”。 在数据连接界面中选择“创建数据连接”,创建一个“MapReduce服务 (MRS Hive)”类型的数据连接。 表3 MRS Hive数据连接
源组,一般来说建议配置一个默认资源组,如果没有设置默认资源组,而又不符合其他资源组选择器条件则查询会被拒绝。选择器规则参数配置请参见表3。 表3 选择器规则 配置项 必选/可选 配置说明 user 可选 匹配用户名的正则表达式。 source 可选 匹配请求源,参见选择器属性的配置中--source选项的配置值。
clean install命令进行编译。 图3 idea terminal输入"mvn clean install" 编译完成,打印“BUILD SUCCESS”,生成target目录,获取target目录下的jar包。 图4 编译完成 将3中生成的Jar包(如FlinkStreamJavaExample
2019-06-17 19:53 hdfs://hacluster/user/test/.Trash/Current/user 是,执行步骤 3。 否,执行步骤 5。 执行以下命令,将tezlib和sparklib重新复原。 hdfs dfs -mv hdfs://hacluster/user/<用户名>/
expires”对应值,查看用户设置是否即将过期。 如果参数值为“never”,则代表永不过期;如果为日期值,则查看是否在15天内过期。 是,执行步骤 3。 否,执行步骤 4。 执行chage -E 'yyyy-MM-dd' omm命令设置omm用户过期的期限,等待8小时,观察告警是否自动清除。
expires”对应值,查看密码设置是否即将过期。 如果参数值为“never”,则代表永不过期;如果为日期值,则查看是否在15天内过期。 是,执行步骤 3。 否,执行步骤 4。 执行chage -M '天数' omm命令设置omm密码的有效天数,等待8小时,观察告警是否自动清除。 是,操作结束。
Total,看是否已经到达或者接近最大值。 是,执行步骤 2。 否,执行步骤 5。 判断当前任务提交数量。 查看当前运行中的任务是否为正常的提交频率。 是,执行步骤 3。 否,执行步骤 5。 对集群进行扩容。 根据实际使用情况对集群进行扩容,扩容操作请参考 扩容集群。 扩容完成后查看告警是否消失。 是,处理完毕。
expires”对应值,查看密码设置是否即将过期。 如果参数值为“never”,则代表永不过期;如果为日期值,则查看是否在15天内过期。 是,执行步骤 3。 否,执行步骤 4。 执行chage -M '天数' ommdba命令设置ommdba密码的有效天数,等待8小时,观察告警是否自动清除。 是,操作结束。