Apache spark 如何在配置单元中保存spark.writeStream结果?
我正在使用spark.readStream从Kafka读取数据,并在生成的数据帧上运行爆炸。 我试图将爆炸的结果保存在蜂巢表中,但我无法找到任何解决方案。 我尝试了下面的方法,但它不起作用。它运行时,我没有看到创建任何新分区 val query=tradelines.writeStream.outputModeappend .格式化内存 .OptionControl,错误 .选项检查点位置,检查点位置 queryNametl先生 开始 sc.sqlset-hive.exec.dynamic.partition.mode=nonstrict; sc.sqlINSERT到表default.tradelines分区dt SELECT*FROM tl 检查文件系统上dt分区的HDFS 您需要在配置单元表上运行MSCK REPAIR TABLE以查看新分区 如果您没有对Spark做任何特殊的处理,那么值得指出的是,它能够直接从Kafka注册配置单元分区Apache spark 如何在配置单元中保存spark.writeStream结果?,apache-spark,apache-kafka,spark-structured-streaming,spark-hive,Apache Spark,Apache Kafka,Spark Structured Streaming,Spark Hive,我正在使用spark.readStream从Kafka读取数据,并在生成的数据帧上运行爆炸。 我试图将爆炸的结果保存在蜂巢表中,但我无法找到任何解决方案。 我尝试了下面的方法,但它不起作用。它运行时,我没有看到创建任何新分区 val query=tradelines.writeStream.outputModeappend .格式化内存 .OptionControl,错误 .选项检查点位置,检查点位置 queryNametl先生 开始 sc.sqlset-hive.exec.dynamic.pa