使用root用户在主备节点分别执行以下命令修改权限: cd ${BIGDATA_HOME}/FusionInsight_Porter_*/install/FusionInsight-Sqoop-1.99.3/FusionInsight-Sqoop-1.99.3/server/webapps
--bootstrap-server Kafka集群节点IP。获取方式如下: 登录FusionInsight Manager页面,选择“集群 > 服务 > Kafka > 实例”,查看Broker角色实例的业务IP地址。
--bootstrap-server Kafka集群节点IP。获取方式如下: 登录FusionInsight Manager页面,选择“集群 > 服务 > Kafka > 实例”,查看Broker角色实例的业务IP地址。
只有具有Tenant Administrator或同时具有Server Administrator、Tenant Guest、MRS Administrator角色才在MRS集群中拥有同步IAM用户的权限。
hbase_bak 执行以下命令,备份并清理HMaster相关数据: hdfs dfs -mv /hbase/MasterData/* /tmp/hbase_bak 执行以下命令,清理meta表位置信息: hbase zkcli deleteall /hbase/meta-region-server
主机 一个弹性云服务器,可以运行Linux系统。 例如Host1~Host5。 机架 一组包含使用相同交换机的多个主机集合的物理实体。 对于MRS集群中的弹性云服务器来说,物理机架是不可见的,Manager上的机架名一般是逻辑机架。 例如Rack1,包含Host1~Host5。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。
默认值:60s 取值范围:1~3600s proxy_connect_timeout 定义与代理服务器建立tcp连接的超时时间。使用数字和单位组合,m表示分钟,s表示秒。
日志格式 日志类型 格式 示例 运行日志 [<yyyy-MM-dd HH:mm:ss>] <Log Level>: [<产生该日志的脚本名称:行号>]: <log中的message> [2020-12-19 15:56:42] INFO [postinstall.sh:653] Is cloud
在Kafka集群上一个服务器称为一个Broker。对于每一个主题,Kafka集群保留一个用于缩放、并行化和容错性的分区(Partition)。每个分区是一个有序、不可变的消息序列,并不断追加到提交日志文件。分区的消息每个也被赋值一个称为偏移顺序(Offset)的序列化编号。
单击待更换磁盘的“节点名称”进入弹性云服务器管理控制台,单击“关机”。 联系华为云支持人员在后台更换磁盘。 在弹性云服务器管理控制台,单击“开机”,将已更换磁盘的节点开机。 执行fdisk -l命令,查看新增磁盘。 使用cat /etc/fstab获取盘符。
如果下载到服务器或远端节点,请在使用完成后及时删除,避免认证凭据泄漏。 浏览器:下载到本地电脑。 服务器端:下载到集群的主OMS节点上。 文件生成后默认保存在主OMS节点“/tmp/FusionInsight-Keytab/”路径。如果此路径不存在,会创建此路径。
服务通过角色安装到主机(即服务器)上,保证服务正常运行。 集群 将多个服务器集中起来使它们能够像一台服务器一样提供服务的计算机技术。采用集群通常是为了提高系统的稳定性、可靠性、数据处理能力或服务能力。例如,可以减少单点故障、共享存储资源、负荷分担或提高系统性能等。
cd /opt/client source bigdata_env kinit 组件操作用户(例如developuser) kafka-console-consumer.sh --topic streams-wordcount-output --bootstrap-server Broker
/opt/client source bigdata_env kinit 组件操作用户(例如developuser) kafka-console-consumer.sh --topic streams-wordcount-processor-output --bootstrap-server
cd /opt/client source bigdata_env kafka-console-consumer.sh --topic streams-wordcount-output --bootstrap-server Broker实例IP地址:Kafka连接端口 --consumer.config
/opt/client source bigdata_env kinit 组件操作用户(例如developuser) kafka-console-consumer.sh --topic streams-wordcount-processor-output --bootstrap-server