检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
路径可以是OBS文件系统的路径或虚拟机本地的路径。 OBS文件系统的路径,必须以obs://开头,以.sh结尾。例如:obs://mrs-samples/xxx.sh 虚拟机本地的路径,脚本所在的路径必须以‘/’开头,以.sh结尾。
服务器登录:选择“用户名和密码”并填写相应的用户名及密码。 单击“新建数据集”,在弹出的页面参考下图修改保存路径及文件名称,单击“确定”保存修改路径及文件名称。
IaaS基础设施资源费用(弹性云服务器,云硬盘,弹性IP/带宽等) MRS服务管理费用详情,请参见产品价格详情。 您可以通过MRS提供的价格计算器,选择您需要的集群节点规格,来快速计算出购买MRS集群的参考价格。 MRS集群删除或退订后不再产生费用。
图1 IoTDB结构 用户可以通过JDBC/Session将来自设备传感器上采集的时序数据和服务器负载、CPU内存等系统状态数据、消息队列中的时序数据、应用程序的时序数据或者其他数据库中的时序数据导入到本地或者远程的IoTDB中。
表1 Oozie日志列表 日志类型 日志文件名 描述 运行日志 jetty.log Oozie内置jetty服务器日志,处理OozieServlet的request/response信息 jetty.out Oozie进程启动日志 oozie_db_temp.log Oozie数据库连接日志
打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。
打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。
表1 Oozie日志列表 日志类型 日志文件名 描述 运行日志 jetty.log Oozie内置jetty服务器日志,处理OozieServlet的request/response信息 jetty.out Oozie进程启动日志 oozie_db_temp.log Oozie数据库连接日志
确认“主机名”节点的“设备分区名”对应的磁盘是否在对应服务器的插槽上。 是,执行步骤 4。 否,执行步骤 5。 联系硬件工程师将故障磁盘在线拔出。 以root用户登录发生告警的“主机名”节点,检查“/etc/fstab”文件中是否包含“挂载目录名”的行。
同时,并且“-Xmx”与“XX:MaxPermSize”之和不得大于该节点服务器的实际物理内存值。 重启受影响的服务或实例,观察界面告警是否清除。 是,处理完毕。 否,执行步骤 6。 服务或实例重启过程中,Loader不再对外提供服务,无法提交作业,对正在运行的作业没有影响。
每个集群的两个安全组,需分别添加对端集群的两个安全组入方向规则,允许安全组中所有弹性云服务器全部协议全部端口的访问请求。 启用MRS集群间拷贝功能 登录其中一个集群的Manager界面。 登录集群Manager界面请参考访问MRS集群Manager。
修改完成后按“Esc”键退出编辑模式,并输入:wq保存退出。 例如: vi /etc/ssh/sshd_config 等待一个小时,进入下一次检查,查看告警是否恢复。 是,操作结束。 否,执行步骤 6。 收集故障信息。
登录弹性云服务器,以root用户登录到安装Yarn服务的各个节点中,执行如下操作。 创建目标目录。 例如目标目录为“${BIGDATA_DATA_HOME}/data2”: 执行mkdir ${BIGDATA_DATA_HOME}/data2 挂载目标目录到新磁盘。
flume_server 系统随机生成 Flume系统启动用户,用于访问HDFS和Kafka,对HDFS目录“/flume”有读写权限。 spark2x/hadoop.
krb5.conf Kerberos Server配置信息。 不同集群的“user.keytab”、“krb5.conf”不能共用。 “conf”目录下的“log4j.properties”文件,客户可根据自己的需要进行配置。 检查客户端节点网络连接。
krb5.conf Kerberos Server配置信息。 检查客户端节点网络连接。
krb5.conf Kerberos Server配置信息。 不同集群的“user.keytab”、“krb5.conf”不能共用。 用户可根据实际需要配置“conf”目录下的“log4j.properties”文件。 检查客户端节点网络连接。
进行kerberos认证(未开启Kerberos认证集群可以跳过此步骤) 创建一个org.apache.hadoop.hbase.rest.client.Cluster类的集群对象,通过调用集群类的add方法和REST server的集群IP和端口来添加集群。