Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/performance/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance cassandra大规模写性能问题_Performance_Cassandra - Fatal编程技术网

Performance cassandra大规模写性能问题

Performance cassandra大规模写性能问题,performance,cassandra,Performance,Cassandra,我的服务器有4 GB RAM和2个4核CPU。当我开始在Cassandra中执行大规模写操作时,最初一切正常,但在每秒10K插入数小时后,数据库增长到25+GB,性能下降到每秒500次插入 我发现这是因为压缩操作非常慢,但我不明白为什么?我设置了8个并发压缩线程,但Cassandra不使用8个线程;仅加载2个磁芯 感谢您的帮助。我们已经看到Cassandra的类似问题,请参阅: 解决这些性能退化问题的一个解决方案(但并非唯一)是考虑一个不同的存储引擎,如CARS,用于上面的博客文章——它的开源

我的服务器有4 GB RAM和2个4核CPU。当我开始在Cassandra中执行大规模写操作时,最初一切正常,但在每秒10K插入数小时后,数据库增长到25+GB,性能下降到每秒500次插入

我发现这是因为压缩操作非常慢,但我不明白为什么?我设置了8个并发压缩线程,但Cassandra不使用8个线程;仅加载2个磁芯


感谢您的帮助。

我们已经看到Cassandra的类似问题,请参阅:

解决这些性能退化问题的一个解决方案(但并非唯一)是考虑一个不同的存储引擎,如CARS,用于上面的博客文章——它的开源(GPL V2),具有更好的性能和更优雅的降级。代码在这里(我刚刚推出了Cassandra 0.8支持的一个分支):

有关如何开始的说明如下:


(完全披露:我为ACNU工作,所以可能有点偏见;-)

我们已经看到卡桑德拉的类似问题,请参见:

解决这些性能退化问题的一个解决方案(但并非唯一)是考虑一个不同的存储引擎,如CARS,用于上面的博客文章——它的开源(GPL V2),具有更好的性能和更优雅的降级。代码在这里(我刚刚推出了Cassandra 0.8支持的一个分支):

有关如何开始的说明如下:


(完全披露:我为Acunu工作,所以可能有点偏见;-)

你在用什么操作系统?如果我胡乱猜测的话,我会说你可能正在用这么多并发压缩耗尽你的小堆。因此,从一个并发压缩开始,然后用此类信息更新您的问题:Cassandra的StatusLogger正在向其系统写入行。Log您正在尝试使用什么操作系统?如果我胡乱猜测的话,我会说,这么多并发压缩可能会耗尽您相当小的堆。因此,从一个并发压缩开始,然后用此类信息更新您的问题:Cassandra的StatusLogger正在写入其system.log的行