Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/cassandra/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/eclipse/8.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Cassandra 2.2范围切片超时-征求建议_Cassandra - Fatal编程技术网

Cassandra 2.2范围切片超时-征求建议

Cassandra 2.2范围切片超时-征求建议,cassandra,Cassandra,我有一个3节点的cassandra 2.2.6集群,它有两个种子,在一个表中包含100000条记录。复制因子设置为3,一致性级别为本地仲裁。该表有7个主键和除第一个主键外的所有主键的聚类顺序。在8个字段和3个虚拟字段上有11个索引。其中一个虚拟字段是7个主键之一。通常,删除大量记录(>65535)的请求会超时。删除请求在执行之前将记录按65530条记录的组进行批处理。我已将写入请求超时和计数器写入请求超时增加到10000(10秒)。但是当我尝试删除100000条记录时,我得到2017-02-13

我有一个3节点的cassandra 2.2.6集群,它有两个种子,在一个表中包含100000条记录。复制因子设置为3,一致性级别为本地仲裁。该表有7个主键和除第一个主键外的所有主键的聚类顺序。在8个字段和3个虚拟字段上有11个索引。其中一个虚拟字段是7个主键之一。通常,删除大量记录(>65535)的请求会超时。删除请求在执行之前将记录按65530条记录的组进行批处理。我已将写入请求超时和计数器写入请求超时增加到10000(10秒)。但是当我尝试删除100000条记录时,我得到2017-02-13 18:03:34243 StorageProxy.java:1893-范围切片超时;收到范围为1/1的2个响应中的1个(包括数据)。在删除请求期间,3台机器上的CPU最大输出约为100-130%。故障发生后,请求删除的cassandra机器上的CPU在10分钟内保持高位。如果您能提出任何建议来限制或消除这些超时问题,我将不胜感激。由于实现问题,我无法更改表的结构。提前谢谢。

您能使用小批量的产品吗,也许是并行的?您正在使用未标记的批处理吗?这是CQL对的,还是您在使用Thrift?我在使用java接口(DataStax 3.0)。我尝试了1000个记录批次,但也有类似的问题,“8个字段上有11个索引”。二级索引?不知道从哪里开始,但是。1) 批量是昂贵的,除非有非常特殊的情况,否则不是优化。2) 二级索引有很多陷阱,反规范化几乎总是更好。@ChrisLohfink同意……这听起来很糟糕。