Apache spark 如何将Spark结构化流式数据写入Hive?

Apache spark 如何将Spark结构化流式数据写入Hive?,apache-spark,hive,apache-spark-2.0,Apache Spark,Hive,Apache Spark 2.0,如何将Spark结构化流式数据写入Hive 有df.write().saveAsTable(tablename)但是我不确定这是否会写入流数据 我通常使用df.writeStream().trigger(new ProcessingTime(1000)).foreach(new KafkaSink()).start()将流式数据写入Kafka,但我没有看到任何类似于将流式数据写入Hive数据仓库的操作。有什么想法吗 df.createOrReplaceTempView("mytable") s

如何将Spark结构化流式数据写入Hive

df.write().saveAsTable(tablename)
但是我不确定这是否会写入流数据

我通常使用
df.writeStream().trigger(new ProcessingTime(1000)).foreach(new KafkaSink()).start()将流式数据写入Kafka,但我没有看到任何类似于将流式数据写入Hive数据仓库的操作。有什么想法吗

df.createOrReplaceTempView("mytable") 
spark.sql("create table mytable as select * from mytable");


如果您想将数据添加到同一个表中,那么您必须使用.mode(SaveMode.append)。我认为,这个问题旨在了解如何将流式数据写入配置单元。您的解决方案适用于批处理数据。
df.write().mode(SaveMode.Overwrite).saveAsTable("dbName.tableName");