Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/ruby-on-rails-4/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Cassandra 如何提高逻辑删除失败阈值_Cassandra_Cassandra 3.0 - Fatal编程技术网

Cassandra 如何提高逻辑删除失败阈值

Cassandra 如何提高逻辑删除失败阈值,cassandra,cassandra-3.0,Cassandra,Cassandra 3.0,我想增加cassandra.yaml文件中的tombstone_failure_阈值,默认值为100K 我不确定要设置的值 我看过一些文档,我看到默认的gc_grace_秒是864000 10天。如果您的TTL数据设置为6天,那么您可能希望将gc_grace_seconds更改为604800 7天,以便更快地删除墓碑。但是我没有为我的数据设置TTL。如果我降低gc_grace_seconds值,那么在cassandra.yaml文件中更改tombstone_failure_阈值会影响tombst

我想增加cassandra.yaml文件中的tombstone_failure_阈值,默认值为100K

我不确定要设置的值

我看过一些文档,我看到默认的gc_grace_秒是864000 10天。如果您的TTL数据设置为6天,那么您可能希望将gc_grace_seconds更改为604800 7天,以便更快地删除墓碑。但是我没有为我的数据设置TTL。如果我降低gc_grace_seconds值,那么在cassandra.yaml文件中更改tombstone_failure_阈值会影响tombstone_failure_阈值还是更好

逻辑删除警告阈值默认值:1000:如果查询扫描的逻辑删除数量超过此数量,Cassandra将记录一条警告,该警告可能会传播到您的监控系统,并向您发送警报。 逻辑删除\u失败\u阈值默认值:100000:如果查询扫描的逻辑删除数量超过此数量,Cassandra将中止查询。是一种防止一个或多个节点内存不足和崩溃的机制。 只有当您确实对集群中的内存使用模式有信心时,才应该向上更改这些值

逻辑删除警告阈值默认值:1000:如果查询扫描的逻辑删除数量超过此数量,Cassandra将记录一条警告,该警告可能会传播到您的监控系统,并向您发送警报。 逻辑删除\u失败\u阈值默认值:100000:如果查询扫描的逻辑删除数量超过此数量,Cassandra将中止查询。是一种防止一个或多个节点内存不足和崩溃的机制。
只有当您确实对集群中的内存使用模式有信心时,才应向上更改这些值。

您可以将集群中的DESC TABLE tablename输出粘贴到相关表中吗?若您并没有设置TTL,并且有超过100K个墓碑,那个么将有一些非常严重的删除。添加了desc table infoSo,正如您所提到的,您并没有设置在表上生存的时间。因此,这绝对是一个错误。进一步增加限制将严重影响性能。所以请注意,您可以将集群中的DESC TABLE tablename的输出粘贴到相关表中吗?若您并没有设置TTL,并且有超过100K个墓碑,那个么将有一些非常严重的删除。添加了desc table infoSo,正如您所提到的,您并没有设置在表上生存的时间。因此,这绝对是一个错误。进一步增加限制将严重影响性能。所以要意识到这一点。
`CREATE TABLE test.topics (
 topic_name text PRIMARY KEY,
 latest_time_stamp double
 ) WITH bloom_filter_fp_chance = 0.01
AND caching = {'keys': 'ALL', 'rows_per_partition': 'NONE'}
AND comment = ''
AND compaction = {'class': 'org.apache.cassandra.db.compaction.SizeTieredCompactionStrategy', 'max_threshold': '32', 'min_threshold': '4'}
AND compression = {'chunk_length_in_kb': '64', 'class': 'org.apache.cassandra.io.compress.LZ4Compressor'}
AND crc_check_chance = 1.0
AND dclocal_read_repair_chance = 0.1
AND default_time_to_live = 0
AND gc_grace_seconds = 864000
AND max_index_interval = 2048
AND memtable_flush_period_in_ms = 0
AND min_index_interval = 128
AND read_repair_chance = 0.0
AND speculative_retry = '99PERCENTILE';