Apache spark 哪些文件系统可用于检查点

Apache spark 哪些文件系统可用于检查点,apache-spark,hdfs,spark-streaming,checkpointing,Apache Spark,Hdfs,Spark Streaming,Checkpointing,文档中说,任何与hadoopapi兼容的文件系统(如HDFS、S3)都可以用作检查点目录 我的问题是,除了HDFS和S3之外,对于使用Kafka和Cassandra的spark流媒体应用程序,还有哪些其他实用的替代方案 谢谢您可以使用任何类型的分布式文件系统,如,以及更多,但前提是基础文件系统使用的协议应得到Spark API的支持。您可以使用任何类型的分布式文件系统,如,还有更多,但前提是底层文件系统使用的协议应该得到Spark API的支持

文档中说,任何与hadoopapi兼容的文件系统(如HDFS、S3)都可以用作检查点目录

我的问题是,除了HDFS和S3之外,对于使用Kafka和Cassandra的spark流媒体应用程序,还有哪些其他实用的替代方案


谢谢

您可以使用任何类型的分布式文件系统,如,以及更多,但前提是基础文件系统使用的协议应得到Spark API的支持。

您可以使用任何类型的分布式文件系统,如,还有更多,但前提是底层文件系统使用的协议应该得到Spark API的支持