Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Cassandra、HBase、MongoDB或Elastic Search的写入性能如何_Mongodb_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch_Cassandra_Nosql - Fatal编程技术网 elasticsearch,cassandra,nosql,Mongodb,elasticsearch,Cassandra,Nosql" /> elasticsearch,cassandra,nosql,Mongodb,elasticsearch,Cassandra,Nosql" />

Cassandra、HBase、MongoDB或Elastic Search的写入性能如何

Cassandra、HBase、MongoDB或Elastic Search的写入性能如何,mongodb,elasticsearch,cassandra,nosql,Mongodb,elasticsearch,Cassandra,Nosql,我在寻找Cassandra、HBase、Mongodb和Elastic Search的编写性能的真实测试结果。我想从我们的服务器收集日志数据,这些数据非常庞大。超过10gb,持续一小时 我知道每个人都在谈论卡桑德拉的写性能,这些产品有不同的用途。K/V,面向文档或搜索。但我现在不关心他们的存储类型,只关心写性能。例如,每秒有50K个事务 我还想在这些数据上搜索 您建议每秒处理超过50K的传输量。卡桑德拉确实非常快 它也很快。我知道至少有一个大型网站选择了它 但是,真的,50K/秒没什么特别的。我

我在寻找Cassandra、HBase、Mongodb和Elastic Search的编写性能的真实测试结果。我想从我们的服务器收集日志数据,这些数据非常庞大。超过10gb,持续一小时

我知道每个人都在谈论卡桑德拉的写性能,这些产品有不同的用途。K/V,面向文档或搜索。但我现在不关心他们的存储类型,只关心写性能。例如,每秒有50K个事务

我还想在这些数据上搜索


您建议每秒处理超过50K的传输量。卡桑德拉确实非常快

它也很快。我知道至少有一个大型网站选择了它

但是,真的,50K/秒没什么特别的。我是在一台机器上用MySQL实现的

但是,请注意,除了可以以多快的速度编写数据外,您还应该对以后如何使用该数据感兴趣。否则你就可以。这将是疯狂的快


此外,你在互联网上找到的任何“基准”都是无用的。它要么使用具有特定特征的数据,要么使用合成数据。这可以让一切变得不同。没有人会使用你的数据对你的场景进行基准测试,除了

你可能对Netflix在EC2上每秒100万次写操作的Cassandra基准感兴趣:

你介意我问一下你是如何在MySQL上获得50K/sec的吗?您的硬件配置是什么?@srs2012:RAID10,放松事务刷新(即,可靠性降低)。-1表示未能回答问题的任何部分。-1因为这不是问题的预期答案。