Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/apache-kafka/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/algorithm/10.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Apache spark 如何在配置单元中保存spark.writeStream结果?_Apache Spark_Apache Kafka_Spark Structured Streaming_Spark Hive - Fatal编程技术网

Apache spark 如何在配置单元中保存spark.writeStream结果?

Apache spark 如何在配置单元中保存spark.writeStream结果?,apache-spark,apache-kafka,spark-structured-streaming,spark-hive,Apache Spark,Apache Kafka,Spark Structured Streaming,Spark Hive,我正在使用spark.readStream从Kafka读取数据,并在生成的数据帧上运行爆炸。 我试图将爆炸的结果保存在蜂巢表中,但我无法找到任何解决方案。 我尝试了下面的方法,但它不起作用。它运行时,我没有看到创建任何新分区 val query=tradelines.writeStream.outputModeappend .格式化内存 .OptionControl,错误 .选项检查点位置,检查点位置 queryNametl先生 开始 sc.sqlset-hive.exec.dynamic.pa

我正在使用spark.readStream从Kafka读取数据,并在生成的数据帧上运行爆炸。 我试图将爆炸的结果保存在蜂巢表中,但我无法找到任何解决方案。 我尝试了下面的方法,但它不起作用。它运行时,我没有看到创建任何新分区

val query=tradelines.writeStream.outputModeappend .格式化内存 .OptionControl,错误 .选项检查点位置,检查点位置 queryNametl先生 开始 sc.sqlset-hive.exec.dynamic.partition.mode=nonstrict; sc.sqlINSERT到表default.tradelines分区dt SELECT*FROM tl 检查文件系统上dt分区的HDFS

您需要在配置单元表上运行MSCK REPAIR TABLE以查看新分区

如果您没有对Spark做任何特殊的处理,那么值得指出的是,它能够直接从Kafka注册配置单元分区