检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果业务需要,可在HiveServer自定义参数中新增“hive.server2.builtin.udf.blacklist”参数项,值为“mpty_blacklist”来允许Hive执行这些函数,存在安全风险,请谨慎操作。 父主题: Hive用户权限管理
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 版本号中包含hw-ei的依赖包请从华为开源镜像站下载 版本号中不包含hw-ei的依赖包都来自开源仓库,请从Maven中心仓获取。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 在运行样例程序时需要指定<brokers> <subscribe-type> <topic> <checkpointDir>。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 在运行样例程序时需要指定<brokers> <subscribe-type> <topic> <checkpointDir>。
此操作对所有服务器生效。 cpw组件运行用户名 例如重置admin密码:cpw admin 集群中,默认的密码复杂度要求: 密码字符长度为8~32位。 至少需要包含大写字母、小写字母、数字、空格、特殊字符'~!@#$%^&*()-_=+\|[{}];:'",<.>/?
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。
9111/templeton/v1/version' version/hive (GET) 描述 获取服务器Hive的版本 URL https://www.myserver.com/templeton/v1/version/hive 参数 无 返回结果 参数 描述 module
version 当前服务器WebHCat的版本。
version 当前服务器WebHCat的版本。
例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1' status (GET) 描述 获取当前服务器的状态 URL http://www.myserver.com/templeton/v1/status
sqoop.server.list 配置连接Loader的浮动IP和端口,参数值格式为“floatip:port”。默认端口号为“21351”。 使用Loader shell客户端。 执行以下命令,进入Loader shell客户端目录。
hdfs://hacluster/hetuserverhistory/租户/coordinator或worker/application_ID/container_ID/yyyyMMdd/server.log HetuEngine计算实例的运行日志。
sqoop.server.list 配置连接Loader的浮动IP和端口,参数值格式为“floatip:port”。默认端口号为“21351”。 使用Loader shell客户端。 执行以下命令,进入Loader shell客户端目录。
# cat /etc/*-release SUSE Linux Enterprise Server 11 (x86_64) VERSION = 11 PATCHLEVEL = 3 其他,执行步骤 11。
--from-beginning 例如本示例使用主题名称为“readhudi”: sh kafka-console-consumer.sh --bootstrap-server Kafka的Broker实例所在节点的IP地址:Kafka端口号 --topic readhudi -
org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicyWithNodeLabel host2tags 配置DataNode主机与标签的对应关系。
每个Agent为一个JVM进程,同一台服务器可以有多个Agent。收集节点(Agent1,2,3)负责处理日志,汇聚节点(Agent4)负责写入HDFS,每个收集节点的Agent可以选择多个汇聚节点,这样可以实现负载均衡。
21007 --security.protocol SASL_PLAINTEXT --sasl.kerberos.service.name kafka --kerberos.domain.name hadoop.系统域名.com //10.96.101.32:21007表示kafka服务器的