检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
卸载云容灾网关或代理客户端 操作场景 在不需要使用SDRS服务时,在服务器上卸载客户端。 前提条件 为避免资源残留,需先在SDRS页面删除保护实例后,再进行卸载。 操作步骤 Linux卸载 登录需要卸载sdrs的服务器,执行以下命令,进行容灾网关或代理客户端卸载。 sh /opt/
批量日志收集 前提条件 已安装云容灾网关。若客户端为linux,云容灾网关为24.6.0及更高版本;若客户端为windows,则要求云容灾网关为24.9.0及更高版本。 需要日志收集的生产站点服务器已安装代理客户端,若生产站点服务器为Linux操作系统,代理客户端为24.6.0及更高版本
挂载复制对 操作场景 将创建的复制对挂载至保护实例。挂载成功后,生产站点磁盘挂载至生产站点服务器,容灾站点磁盘挂载至容灾站点服务器。 保护组开启保护后,随着生产站点磁盘写入数据,容灾站点磁盘会同步写入数据。 约束与限制 未挂载到任意保护实例的复制对个数达到5个时,不能继续创建新复制对
卸载复制对 操作场景 从保护实例卸载复制对。 卸载后,生产站点磁盘和容灾站点磁盘的复制对关系依然存在,但是组成该复制对的云硬盘将不能再通过云服务器写入数据。 前提条件 保护组的状态为“可用”、“保护中”、“故障切换”、“开启保护失败”、“停止保护失败”、“切换失败”、“故障切换失败
如果DWS建表时没有指定分布列,数据会怎么存储? 8.1.2及以上集群版本,可通过GUC参数default_distribution_mode来查询和设置表的默认分布方式。 如果建表时没有指定分布列,数据会以下几种场景来存储: 场景一 若建表时包含主键/唯一约束,则选取HASH分布
为什么DWS扩容后已使用存储容量比扩容前减少了很多? 原因分析 扩容前,如果您没有执行vacuum清理和回收存储空间,DWS数据仓库中之前被删除的数据,可能没有释放占用的磁盘空间形成脏数据,导致磁盘浪费。 而在扩容时,系统会做一次重分布,集群扩容时新节点添加完成后,原节点存储的业务数据明显多于新节点
使用客户端访问集群 用户在弹性云服务器里可以通过手动安装客户端的方法,使用SQL访问集群。 创建集群的虚拟私有云、安全组需要和公网ECS保持一致,否则客户端无法访问集群。 ClickHouse手动安装客户端 准备Linux弹性云服务器,具体操作请见准备弹性云服务章节。 下载客户端。
全局二级索引限制与约束 使用场景限制 GSI不支持与HIndex(LSI)同时使用,即不支持在同一个数据表上同时创建本地索引与全局索引。 索引表不支持容灾。 不支持直接对索引表执行DISABLE、DROP、MODIFY和TRUNCATE操作。 索引DDL操作支持修改索引状态、删除索引
消息被消费后,没有删除,导致Kafka存储空间占满? 消息被消费后,并不会被删除,只有超过老化时间,才会被删除。 您可以通过减小老化时间或者扩容存储空间,解决此问题。 父主题: Topic和分区问题
使用Thrift Server 通过CloudTable管理页面开启关闭Thrift Server服务。 前提条件 已经创建HBase集群。 集群状态“服务中”。 开启Thrift Server步骤 登录表格存储服务管理控制台。 控制台左上角,选择区域。 单击集群管理界面右上角的“
分桶 根据分桶列的Hash值将数据划分成不同的Bucket。 如果使用了Partition,则DISTRIBUTED ... 语句描述的是数据在各个分区内的划分规则。如果不使用Partition,则描述的是对整个表的数据的划分规则。 分桶列可以是多列,Aggregate和Unique
最佳实践 关于Partition和Bucket的数量和数据量的建议 一个表的Tablet总数量等于 (Partition num*Bucket num)。 一个表的Tablet数量,在不考虑扩容的情况下,推荐略多于整个集群的磁盘数量。 单个Tablet的数据量理论上没有上下界,但建议在
Doris数据表和数据模型 数据表 数据模型 最佳实践 父主题: 建表
分区(Partition) 分区用于将数据划分成不同区间,逻辑上可以理解为将原始表划分成了多个子表。可以方便的按分区对数据进行管理。 Partition列可以指定一列或多列,分区列必须为KEY列。多列分区的使用方式在后面多列分区小结介绍。 不论分区列是什么类型,在写分区值时,都需要加双引号
删除数据 功能简介 HBase通过Table实例的delete方法来Delete数据,可以是一行数据也可以是数据集。 具体删除方法根据用户使用场景选取。 代码样例 public void testDelete() { LOG.info("Entering testDelete.
典型场景说明 通过典型场景,我们可以快速学习和掌握ClickHouse冷热分离的开发过程,并且对关键的接口函数有所了解。 场景说明 假定用户开发一个网站系统,test_tbl用于实时用户访问网站的记录,记录数据如下表: 表1 原始数据 timestamp type error_code
访问ThriftServer操作表 操作场景 用户根据指定的host和port访问对应的ThriftServer实例,进行HBase表的创建,删除等操作。 前提条件 集群已启用ThriftServer并从集群详情页面获取到ThriftServer IP。 已下载Thrift安装包,
配置Hive列加密功能 操作场景 Hive支持对表的某一列或者多列进行加密;在创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列加密。列加密只支持存储在HDFS上的TextFile和SequenceFile文件格式的表。Hive
Hive支持ZSTD压缩格式 ZSTD(全称为Zstandard)是一种开源的无损数据压缩算法,其压缩性能和压缩比均优于当前Hadoop支持的其他压缩格式,本特性使得Hive支持ZSTD压缩格式的表。Hive支持基于ZSTD压缩的存储格式有常见的ORC,RCFile,TextFile
配置Hive列加密功能 操作场景 Hive支持对表的某一列或者多列进行加密,在创建Hive表时,可以指定要加密的列和加密算法。当使用insert语句向表中插入数据时,即可实现将对应列的数据加密。 Hive列加密机制目前支持的加密算法有两种,需在建表时指定: AES:对应加密类名称为