Cassandra 跟踪错误“;“对象不可编辑”;
Cassandra对表的写入速度很慢(每次插入的写入延迟为38ms)。我试图通过打开跟踪来找出原因。然而,我得到了这个错误,我不明白。请注意,插入本身确实成功。我使用的是cassandra 1.2.5 错误:“非类型”对象不可编辑 以下是插页:Cassandra 跟踪错误“;“对象不可编辑”;,cassandra,cql3,Cassandra,Cql3,Cassandra对表的写入速度很慢(每次插入的写入延迟为38ms)。我试图通过打开跟踪来找出原因。然而,我得到了这个错误,我不明白。请注意,插入本身确实成功。我使用的是cassandra 1.2.5 错误:“非类型”对象不可编辑 以下是插页: insert into table1(col1, col2, col3, col15, col6, col11, col12, col13, col14,
insert into table1(col1, col2, col3,
col15, col6, col11,
col12, col13, col14,
col7,col8, col10,
col9, col4, col5)
values (6000000, 1, 'name_1', 'name_alias_1',
false,false, 676, 59455,
'REG', 'ADM', 'CRT', 'AST',
{'1000000001', '1000000002', '1000000003', '1000000004'},
'2013-06-26 19:44:36', '2013-06-26 19:44:36');
以下是表格描述:
CREATE TABLE table1 (
col1 bigint,
col2 bigint,
col3 text,
col4 timestamp,
col5 timestamp,
col6 boolean,
col7 text,
col8 text,
col9 set<text>,
col10 text,
col11 boolean,
col12 bigint,
col13 int,
col14 text,
col15 text
PRIMARY KEY (col1, col2)
) WITH
bloom_filter_fp_chance=0.010000 AND
caching='KEYS_ONLY' AND
comment='' AND
dclocal_read_repair_chance=0.000000 AND
gc_grace_seconds=864000 AND
read_repair_chance=0.100000 AND
replicate_on_write='true' AND
populate_io_cache_on_flush='false' AND
compaction={'class': 'SizeTieredCompactionStrategy'} AND
compression={'sstable_compression': 'SnappyCompressor'};
创建表表1(
col1 bigint,
col2 bigint,
col3文本,
col4时间戳,
col5时间戳,
col6布尔值,
col7文本,
col8文本,
第9列,
col10文本,
col11布尔型,
col12 bigint,
col13 int,
col14文本,
col15文本
主键(col1、col2)
)与
bloom_过滤器_fp_概率=0.010000和
缓存class='KEYS\u ONLY'和
注释=“”和
dclocal\u read\u repair\u chance=0.000000和
gc_grace_秒=864000和
读取\修复\机会=0.100000和
在_write='true'和上复制
在\u flush='false'和
压缩={'class':'SizeTieredCompactionStrategy}和
压缩={'sstable_compression':'SnappyCompressor'};
这是1.2.6之前版本跟踪()中的一个错误。唯一的解决办法是升级。您能否显示您正在运行的导致该错误的命令?另外,请确保您使用的是Cassandra 1.2.5附带的cqlsh版本,而不是其他版本。我使用的是发行版附带的cqlsh版本;将值插入表1(col1、col2、col3、col15、col6、col11、col12、col13、col14、col7、col8、col10、col9、col4、col5)(6000000,1,'name_1','name_alias_1',false,false,false,67659455,'REG','ADM','CRT','AST',{'1000000001','100000002','100000003','100000004','2013-06-26 19:44:36','2013-06-26 19:44:36');您可以尝试删除SET列并运行更多基准测试吗?我见过一些人在集合方面存在性能问题——希望从模式中删除集合会有所帮助只是巧合,但如果您也可以进行测试,那将是另一个数据点。