Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/cassandra/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Cassandra 卡桑德拉超时?_Cassandra_Timeout_Cqlsh - Fatal编程技术网

Cassandra 卡桑德拉超时?

Cassandra 卡桑德拉超时?,cassandra,timeout,cqlsh,Cassandra,Timeout,Cqlsh,我在一个表中有一个大型数据集(超过200万行,每行超过100列),存储在cassandra中,几个月前(可能是2行?),我能够执行一个简单的命令来跟踪该表中的记录量: SELECT count(*) from mydata limit 11111111; 几天前,我尝试了相同的命令,但出现以下错误: errors={}, last_host=168.176.61.25 这个错误本身并不能说明什么,在对谷歌进行了一些研究之后,我认为它可能与超时有关。正如您可能期望的那样,短时间运行的查询会正确

我在一个表中有一个大型数据集(超过200万行,每行超过100列),存储在cassandra中,几个月前(可能是2行?),我能够执行一个简单的命令来跟踪该表中的记录量:

SELECT count(*) from mydata limit 11111111;
几天前,我尝试了相同的命令,但出现以下错误:

errors={}, last_host=168.176.61.25
这个错误本身并不能说明什么,在对谷歌进行了一些研究之后,我认为它可能与超时有关。正如您可能期望的那样,短时间运行的查询会正确执行,并且错误总是在处理大约10秒后出现

A据我所知,cassandra的超时是在cassandra.yaml中设置的,我更改了以下值

读取请求超时时间单位:25000

范围请求超时时间单位:25000毫秒

请求超时时间单位:25000

但是错误没有任何变化,在同样的10秒后仍然失败

有什么想法吗

非常感谢


Fuanka

如果您只想计算记录的数量,请不要使用count(*),在架构中放置计数器列:


如果您还需要获取其他操作的所有数据,此超时有多个原因,如果需要,我可以为您提供一些。

好的,为您的查询设计。如果您需要一直运行此计数,请保留一个计数器表,并在添加或删除行时进行更新。谢谢,这看起来是一个更简单的解决方案。我不再处理那个特定的数据集了。但是,我想知道如何处理这么多行并避免超时。你能给我一些提示吗?。非常感谢您需要获得结果页面,cassandra支持限制,但不支持偏移。如果您正在执行直接cql,请使用timeuuid以克服偏移问题。如果您使用的是驱动程序,请使用驱动程序分页