检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
阈值,则发送告警。 单击规则“操作”列的“修改”,根据实际情况更改告警阈值。 等待2分钟,查看告警是否自动恢复。 是,处理完毕。 否,执行3。 检查每个写操作平均所需时间是否达到上限。 在FusionInsight Manager页面,选择“运维 > 告警 > 告警”,在告警列表
ZooKeeper”,单击“资源”,在精细化监控“资源使用(按二级Znode)”中,单击“按容量”查看顶级Znode目录是否被写入较多数据。 是,记录被写入较多数据的目录,执行3。 否,执行5。 确认被写入较多数据的目录中数据是否可以进行删除。 删除ZooKeeper中的数据为高危操作,请谨慎处理。 是,执行4。 否,执行5。
查看上报告警的租户目录所对应的存储空间阈值配置设置是否合理(默认90%为合理值,用户可以根据自己的实际情况设置)。 是,执行5。 否,执行3。 根据租户空间实际的使用情况,在“资源”页面单击“修改”修改或取消上报告警的租户目录所对应的存储空间阈值配置。 等待1分钟,检查该告警是否恢复。
查看上报告警的租户目录所对应的文件数阈值配置设置是否合理(默认90%为合理值,用户可以根据自己的实际需求调节)。 是,执行5。 否,执行3。 根据该租户该目录文件数的实际使用情况,在“资源”页面单击“修改”修改或取消上报告警的租户目录所对应的文件数阈值配置。 等待1分钟,检查该告警是否恢复。
在“主机CPU使用率”界面单击“操作”列的“修改”,更改告警阈值,如图2所示。 图2 设置告警阈值 等待2分钟,查看告警是否自动恢复。 是,处理完毕。 否,执行3。 检查CPU使用率是否达到上限。 打开FusionInsight Manager页面,在告警列表中,单击此告警所在行的,查看该告警的节点地址。
超过阈值,则发送告警。 单击“操作”列的“修改”,根据实际情况更改告警阈值。 等待2分钟,查看告警是否自动恢复。 是,处理完毕。 否,执行3。 检查CPU使用率是否达到上限。 在FusionInsight Manager页面,选择“运维 > 告警 > 告警”,在告警列表中展开此告
据存储结构如图 RegionServer的数据存储结构所示。 图3 RegionServer的数据存储结构 图 RegionServer的数据存储结构中Region的各部分的说明如表 Region结构说明所示。 表3 Region结构说明 名称 描述 Store 一个Region
Directed Grouping。 图3描述了一个由Spout、Bolt组成的DAG,即Topology。图中每个矩形框代表Spout或者Bolt,矩形框内的节点表示各个并发的Task,Task之间的“边”代表数据流——Stream。 图3 Topology示意图 可靠性 Storm提供三种级别的数据可靠性:
Job与Job之间的联系可能是多对多的关系,对于每个NettySink和NettySource算子的并发度而言,是一对多的关系,如图3所示。 图3 关系图 父主题: Flink
list.add(Bytes.toBytes("2")); list.add(Bytes.toBytes("3")); list.add(Bytes.toBytes("4")); list.add(Bytes
common.ConsumerRebalanceFailedException: pc-zjqbetl86-1454482884879-2ec95ed3 can't rebalance after 4 retries at kafka.consumer.ZookeeperConsumerCo
apache.sqoop.connector.ftp.FtpConnector | | 3 | hdfs-connector | 2.0.5-SNAPSHOT | org.apache.sqoop.connector
properties 输入消息内容: 3,zhangsan 5,zhaosi 1,xiaoming 2,liuyang 7,liubei 10,guanyu 20,zhaoyun 输入完成后按回车发送消息,4中的kafka-console-consumer窗口打印结果如下: 3,zhangsan,16
ClickHouseServer(角色) > 引擎”,单击参数“hdfs.hadoop_kerberos_keytab_file”后的“上传文件”上传3的认证凭据文件。添加参数“hdfs.hadoop_kerberos_principal”的值,以“用户名@域名”的方式进行设置,例如:clickhouseuser@HADOOP
配置YARN模式下Spark内部需要上传到HDFS的文件。 /Spark_path/spark/conf/s3p.file,/Spark_path/spark/conf/locals3.jceks Spark_path为Spark客户端的安装路径。 spark.sql.bigdata.register
时间最长的SQL语句的信息(即结果中“longestDurationOfCompletedSQL”的部分)。每个SQL语句的信息如下表3。 表3 SQL的常用信息 参数 描述 id SQL语句的ID status SQL语句的执行状态,有RUNNING、COMPLETED、FAILED三种
是否必选 参数类型 描述 node_group 否 String 参数解释: 要查询的节点组名称。 约束限制: 不涉及 取值范围: 长度为[3-14]个字符。 默认取值: 不涉及 limit 否 Integer 参数解释: 返回结果中每页显示条数。 约束限制: 不涉及 取值范围: ≥1
具体操作可参考安装MRS集群客户端。 MRS集群中默认安装了一个客户端用于作业提交,也可直接使用该客户端。MRS 3.x及之后版本客户端默认安装路径为Master节点上的“/opt/Bigdata/client”,MRS 3.x之前版本为Master节点上的“/opt/client”。 使用MRS集群客户端安装用户登录客户端所在的节点。
具体操作可参考安装MRS集群客户端。 MRS集群中默认安装了一个客户端用于作业提交,也可直接使用该客户端。MRS 3.x及之后版本客户端默认安装路径为Master节点上的“/opt/Bigdata/client”,MRS 3.x之前版本为Master节点上的“/opt/client”。 使用MRS集群客户端安装用户登录客户端所在的节点。
在页面顶部选择“账号管理 > 用户管理”。 对于MRS 3.x之前版本,当用户选择的数据连接为“RDS服务MySQL数据库”时,请确保使用的数据库用户为root用户。如果为非root用户,请参考5~6新建用户并为该用户进行赋权。 对于MRS 3.x及之后版本,当用户选择的数据连接为“RDS