Apache spark 如何在时间戳上对cassandra表进行分区?
我有这样的桌子Apache spark 如何在时间戳上对cassandra表进行分区?,apache-spark,datastax,cassandra-3.0,Apache Spark,Datastax,Cassandra 3.0,我有这样的桌子 CREATE TABLE ks.log_by_date ( column_name text, status text, error_msg text, last_update_date date, last_update_timestamp timestamp, updated_user text, PRIMARY KEY (( column_name), last_update_date) ) WITH CLUS
CREATE TABLE ks.log_by_date (
column_name text,
status text,
error_msg text,
last_update_date date,
last_update_timestamp timestamp,
updated_user text,
PRIMARY KEY (( column_name), last_update_date)
) WITH CLUSTERING ORDER BY ( last_update_date DESC );
INSERT INTO ks.log_by_date (column_name,last_update_date,error_msg,last_update_timestamp,status,updated_user)
VALUES ('column_log_by_date','2018-10-23','NONE',1540302120001,'ERROR','user1');
INSERT INTO ks.log_by_date (column_name,last_update_date,error_msg,last_update_timestamp,status,updated_user)
VALUES ('column_log_by_date','2018-10-23','NONE',1540302340001,'SUCCESS','user1');
当我根据“上次更新时间戳”列插入两列时,时间戳不同:1540302120001和1540302340001
该行被覆盖
我做错了什么?为什么要覆盖行而不是两个单独的行。
如何在此处插入两行。。。基于上次更新的时间戳
您的帮助非常有用。如果您希望将具有不同
last\u update\u timestamp
的两行计算为单独的行,则需要将last\u update\u timestamp
作为集群列放入主键中:
PRIMARY KEY (( column_name), last_update_date, last_update_timestamp)
但我不知道-你真的需要有
上次更新日期吗?您需要选择所有具有特定上次更新日期的行吗?@alexott先生,您能帮助我吗,我做错了什么吗?是的,我想选择所有具有特定上次更新日期的行