Apache spark 为什么使用更新输出模式的流式查询打印所有行?
我的目录中有三个文本文件: a、 文本 b、 文本 c、 文本 我使用以下流式查询:Apache spark 为什么使用更新输出模式的流式查询打印所有行?,apache-spark,spark-structured-streaming,Apache Spark,Spark Structured Streaming,我的目录中有三个文本文件: a、 文本 b、 文本 c、 文本 我使用以下流式查询: val schema = new StructType().add("value", "string") val lines = spark .readStream .schema(schema) .option("maxFilesPerTrigger", 1) .text(...) .as[String] val wordCounts = lines.flatMap(_.split("\
val schema = new StructType().add("value", "string")
val lines = spark
.readStream
.schema(schema)
.option("maxFilesPerTrigger", 1)
.text(...)
.as[String]
val wordCounts = lines.flatMap(_.split("\\s+")).groupBy("value").count()
val query = wordCounts.writeStream
.queryName("t")
.outputMode("update") // <-- output mode: update
.format("memory")
.start()
while (true) {
spark.sql("select * from t").show(truncate = false)
println(new Date())
Thread.sleep(1000)
}
看起来每个文件的结果都会附加到输出结果中(如
附加
输出模式),我不确定自己是否理解更新
模式的含义。更新
输出模式如何工作?在追加模式下,只有自上次触发器以来添加到结果表的新行才会输出到接收器只有那些添加到结果表中的行永远不会更改的查询才支持此操作。因此,此模式保证每行只输出一次
在Update模式下,只有自上次触发以来更新的结果表中的行才会输出到接收器
为了更好地理解这些模式,我将输出格式更改为控制台,并修改了在更新模式下执行的数据,结果如下:
a.txt
A B
C D
A E
F X
Y Z
b.txt
A B
C D
A E
c.txt
A B
C D
A E
G
scala> val query = wordCounts.writeStream.queryName("t").outputMode("update").format("console").start()
query: org.apache.spark.sql.streaming.StreamingQuery = org.apache.spark.sql.execution.streaming.StreamingQueryWrapper@1985f8e3
scala> -------------------------------------------
Batch: 0
-------------------------------------------
+-----+-----+
|value|count|
+-----+-----+
| F| 1|
| E| 1|
| B| 1|
| Y| 1|
| D| 1|
| C| 1|
| Z| 1|
| A| 2|
| X| 1|
+-----+-----+
-------------------------------------------
Batch: 1
-------------------------------------------
+-----+-----+
|value|count|
+-----+-----+
| E| 2|
| B| 2|
| D| 2|
| C| 2|
| A| 4|
+-----+-----+
-------------------------------------------
Batch: 2
-------------------------------------------
+-----+-----+
|value|count|
+-----+-----+
| E| 3|
| B| 3|
| D| 3|
| C| 3|
| A| 6|
| G| 1|
+-----+-----+
您可以看到,对于每个批处理,控制台中只显示自上次触发以来更新的行。(对于ex:X、Y、Z计数不显示在批次1和2中,因为它们未更新)
在您的情况下,当您将数据写入内存时。由于没有逐出每个批的内存,因此在查询前一批数据时也会检索到该批数据。希望模式现在清晰了
A B
C D
A E
G
val schema = new StructType().add("value", "string")
val lines = spark
.readStream
.schema(schema)
.option("maxFilesPerTrigger", 1)
.text(...)
.as[String]
val wordCounts = lines.flatMap(_.split("\\s+")).groupBy("value").count()
val query = wordCounts.writeStream
.queryName("t")
.outputMode("update") // <-- output mode: update
.format("memory")
.start()
while (true) {
spark.sql("select * from t").show(truncate = false)
println(new Date())
Thread.sleep(1000)
}
+-----+-----+
|value|count|
+-----+-----+
|A |2 |
|B |1 |
|C |1 |
|D |1 |
|E |1 |
|A |4 |
|B |2 |
|C |2 |
|D |2 |
|E |2 |
|G |1 |
|A |6 |
|B |3 |
|C |3 |
|D |3 |
|E |3 |
|F |1 |
+-----+-----+
a.txt
A B
C D
A E
F X
Y Z
b.txt
A B
C D
A E
c.txt
A B
C D
A E
G
scala> val query = wordCounts.writeStream.queryName("t").outputMode("update").format("console").start()
query: org.apache.spark.sql.streaming.StreamingQuery = org.apache.spark.sql.execution.streaming.StreamingQueryWrapper@1985f8e3
scala> -------------------------------------------
Batch: 0
-------------------------------------------
+-----+-----+
|value|count|
+-----+-----+
| F| 1|
| E| 1|
| B| 1|
| Y| 1|
| D| 1|
| C| 1|
| Z| 1|
| A| 2|
| X| 1|
+-----+-----+
-------------------------------------------
Batch: 1
-------------------------------------------
+-----+-----+
|value|count|
+-----+-----+
| E| 2|
| B| 2|
| D| 2|
| C| 2|
| A| 4|
+-----+-----+
-------------------------------------------
Batch: 2
-------------------------------------------
+-----+-----+
|value|count|
+-----+-----+
| E| 3|
| B| 3|
| D| 3|
| C| 3|
| A| 6|
| G| 1|
+-----+-----+