MAPREDUCE服务 MRS-数据入库规范:建议

时间:2024-05-22 19:19:19

建议

  • 一次只插入一个分区内的数据

    如果数据属于不同的分区,则每次插入,不同分区的数据会独立生成part文件,导致part总数量膨胀,建议一批插入的数据属于同一个分区。

  • 写入速率

    单节点写入速度为50~200MB/S,如果写入的数据每行为1Kb,那么写入的速度为50,000到200,000行每秒,如果行数据容量更小,那么写入速度将更高,如果写入性能不够,可以使用多个副本同时写入,同一时间每个副本写入的数据保持均衡。

  • 慎用分布式表批量插入
    • 写分布式表,数据会分发到集群的所有本地表,每个本地表插入的数据量是总插入量的1/N,batch size可能比较小,导致data part过多,merge压力变大,甚至出现异常影响数据插入;
    • 数据的一致性问题:数据先在分布式表写入节点的主机落盘,然后数据被异步地发送到本地表所在主机进行存储,中间没有一致性的校验,如果分布式表写入数据的主机出现宕机,会存在数据丢失风险;
    • 对于数据写分布式表和数据写本地表相比,分布式表数据写入性能也会变慢,单批次分布式表写,写入节点的磁盘和网络IO会成为性能瓶颈点。
    • 分布式表转发给各个shard成功与否,插入数据的客户端无法感知,转发失败的数据会不断重试转发,消耗CPU。
  • 大批量数据导入要分时、分节点、扩容

    如果数据盘为SATA盘,当大批量数据集中插入时候,会抢占磁盘,使得磁盘长时间处于繁忙状态,影响其他alter类操作的效率。

    尽量避免批量导数据的SQL并发执行,会给磁盘和ClickHouse并发能力带来冲击。

  • Kafka数据入库

    不建议建ClickHouse kafka表引擎,进行数据同步到ClickHouse中,当前CK的kafka引擎有会导致kafka引擎数据入库产生性能等诸多问题,通过用户使用经验,需要应用侧自己写kafka的数据消费,攒批写入ClickHouse,提升ClickHouse的入库性能。

  • 使用分区替换或增加的方式写入数据

    为避免目标表写入脏数据导致的删改,先将数据写入临时表,再从临时表写入目标表。

    操作步骤如下:

    1. 创建一张与目标表table_dest结构、分区键、排序键、主键、存储策略、引擎都一致的临时表table_source。
    2. 先把数据写到临时表,一次只写入一个分区的数据,检查临时表的数据准确无误。
    3. 使用以下SQL查看目标表的分区:

      SELECT partition AS `partition`,sum(rows) AS `count` FROM system.parts WHERE active AND database=='数据库名' AND table=='表名' GROUP BY partition ORDER BY partition ASC;

    4. 如果目标表存在该分区,将分区替换到目标表,到集群的每个节点上执行如下语法:

      ALTER TABLE table_dest REPLACE PARTITION partition_expr FROM table_source;

    5. 如果目标表不存在该分区,将分区增加到目标表,到集群的每个节点上执行如下语法:

      ALTER TABLE table_dest REPLACE PARTITION tuple() partition_expr FROM table_source;

support.huaweicloud.com/bestpractice-mrs/mrs_05_0099.html