Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/bash/16.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
向ClickHouse插入数据时iops高_Clickhouse - Fatal编程技术网

向ClickHouse插入数据时iops高

向ClickHouse插入数据时iops高,clickhouse,Clickhouse,在向clickhouse插入数据时,我面临性能问题。我们每批插入100000行,间隔时间为30s,但由于分区键字段的基数较大,所以将100000行插入到2000+个分区中,达到了iops的限制,即150,即使我们将ebs的iops限制增加到2000,仍然达到了限制。如果无法减少分区数,如何降低iops? clickhouse的版本是20.5 提前谢谢 2000个分区~每次插入2000*列数*2(4)个文件(*2 iops) 尝试启用紧凑型部件 压缩—所有列都存储在文件系统中的一个文件中。 表设置

在向clickhouse插入数据时,我面临性能问题。我们每批插入100000行,间隔时间为30s,但由于分区键字段的基数较大,所以将100000行插入到2000+个分区中,达到了iops的限制,即150,即使我们将ebs的iops限制增加到2000,仍然达到了限制。如果无法减少分区数,如何降低iops? clickhouse的版本是20.5
提前谢谢

2000个分区~每次插入2000*列数*2(4)个文件(*2 iops)

尝试启用紧凑型部件 压缩—所有列都存储在文件系统中的一个文件中。 表设置宽度部分的最小字节数='10M'

或者尝试引擎=缓冲区