Python 使用pyspark使用时间戳写入cassandra

Python 使用pyspark使用时间戳写入cassandra,python,apache-spark,cassandra,pyspark,Python,Apache Spark,Cassandra,Pyspark,我希望能够使用Cassandra的使用时间戳的,比如: INSERT INTO ... VALUES ... USING TIMESTAMP 1000; 使用pyspark,指定要使用的时间戳。目前,我正在保存一个数据帧值,如: dataframe.write.mode(“append”).format(“org.apache.spark.sql.cassandra”).options( **加载选项 ).save() 我已经检查了文档并四处查看了一下,但是找不到关于这方面的任何信息,不管是

我希望能够使用Cassandra的使用时间戳的
,比如:

INSERT INTO ... VALUES ... USING TIMESTAMP 1000;
使用pyspark,指定要使用的时间戳。目前,我正在保存一个数据帧值,如:

dataframe.write.mode(“append”).format(“org.apache.spark.sql.cassandra”).options(
**加载选项
).save()

我已经检查了文档并四处查看了一下,但是找不到关于这方面的任何信息,不管是否可能(以及如何做)。有没有办法在pyspark中使用此选项?

Dataframe API不支持使用时间戳或TTL进行写入-它仅在RDD API中可用。这是所有语言的共同限制


我自己还没有尝试过,但是看起来应该可以通过
pyspark cassandra
包来实现。

数据帧API不支持使用时间戳或TTL进行写入-它仅在RDD API中可用。这是所有语言的共同限制

我自己还没有试过,但看起来应该可以通过
pyspark-cassandra
包来实现