version 当前服务器WebHCat的版本。
例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1' status (GET) 描述 获取当前服务器的状态 URL http://www.myserver.com/templeton/v1/status
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。
在“Select Resource Services”中选择服务后,需要在“Resource”列中添加具体的资源对象,例如HDFS服务器的文件目录、Yarn的队列、Hive的数据库及表、HBase的表及列。
上传UDF jar文件后,服务器默认保留5分钟,5分钟内单击确定则完成UDF创建,超时后单击确定则创建UDF失败并弹出错误提示:本地UDF文件路径有误。 在UDF列表中,可查看当前应用内所有的UDF信息。
在“Select Resource Services”中选择服务后,需要在“Resource”列中添加具体的资源对象,例如HDFS服务器的文件目录、Yarn的队列、Hive的数据库及表、HBase的表及列。
21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka --kerberos.domain.name hadoop.系统域名.com //10.96.101.32:21007表示kafka服务器的
UDF-CLASS-FULL-PATHNAME>' 例如,注册名称为“example”的UDF命令为: CREATE FUNCTION example AS 'com.xxx.bigdata.iotdb.UDTFExample' 由于IoTDB的UDF是通过反射技术动态装载的,因此您在装载过程中无需启停服务器
每个Agent为一个JVM进程,同一台服务器可以有多个Agent。收集节点(Agent1,2,3)负责处理日志,汇聚节点(Agent4)负责写入HDFS,每个收集节点的Agent可以选择多个汇聚节点,这样可以实现负载均衡。
sqoop.server.list 配置连接Loader的浮动IP和端口,参数值格式为“floatip:port”。默认端口号为“21351”。 使用Loader shell客户端。 执行以下命令,进入Loader shell客户端目录。
sqoop.server.list 配置连接Loader的浮动IP和端口,参数值格式为“floatip:port”。默认端口号为“21351”。 使用Loader shell客户端。 执行以下命令,进入Loader shell客户端目录。
hdfs://hacluster/hetuserverhistory/租户/coordinator或worker/application_ID/container_ID/yyyyMMdd/server.log HetuEngine计算实例的运行日志。
# cat /etc/*-release SUSE Linux Enterprise Server 11 (x86_64) VERSION = 11 PATCHLEVEL = 3 其他,执行步骤 11。
org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicyWithNodeLabel host2tags 配置DataNode主机与标签的对应关系。
--from-beginning 例如本示例使用主题名称为“readhudi”: sh kafka-console-consumer.sh --bootstrap-server Kafka的Broker实例所在节点的IP地址:Kafka端口号 --topic readhudi -
Flink作业提交参数中添加zookeeper.server.principal参数。 解决JobGateWay问题: 客户提交作业报Flink组件无法找到类。
ldapserver_uninstall.log Oldapserver卸载日志 restart_service.log Oldapserver重启日志 ldapserver_unlockUser.log 记录解锁Ldap用户和管理账户的日志 metric_agent gc.log MetricAgent JAVA虚拟机
80% Flume Flume堆内存使用率 24006 Flume Server堆内存使用率超过阈值 堆内存溢出可能导致服务崩溃。 95.0% Flume直接内存使用率 24007 Flume Server直接内存使用率超过阈值 直接内存溢出可能导致服务崩溃。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。