Scala 如何加入2个spark sql流

Scala 如何加入2个spark sql流,scala,apache-spark-sql,Scala,Apache Spark Sql,环境: Scala spark版本:2.1.1 这是我的流(读自卡夫卡): 启动应用程序时出现以下错误: org.apache.spark.sql.AnalysisException: Left outer/semi/anti joins with a streaming DataFrame/Dataset on the right is not supported;; 我如何连接这两条流? 我也尝试直接连接,得到同样的错误。 我应该先把它保存到文件中,然后再读一遍吗? 最佳实践是什么?您似乎

环境: Scala spark版本:2.1.1

这是我的流(读自卡夫卡):

启动应用程序时出现以下错误:

org.apache.spark.sql.AnalysisException: Left outer/semi/anti joins with a streaming DataFrame/Dataset on the right is not supported;;
我如何连接这两条流? 我也尝试直接连接,得到同样的错误。 我应该先把它保存到文件中,然后再读一遍吗?
最佳实践是什么?

您似乎需要Spark 2.3:

“在Spark 2.3中,我们添加了对流连接的支持…”

org.apache.spark.sql.AnalysisException: Left outer/semi/anti joins with a streaming DataFrame/Dataset on the right is not supported;;