如何在ApacheSpark中连接两个(或更多)流(JavaDStream)
我们有一个spark流应用程序,它使用Gnip合规流 在旧版本的API中,法规遵从性流由一个端点提供,但现在由8个不同的端点提供 我们可以使用不同的参数运行相同的spark应用程序8次,以使用不同的端点 spark streaming中是否有方法使用8个端点并将它们合并到同一个应用程序中如何在ApacheSpark中连接两个(或更多)流(JavaDStream),java,apache-spark,spark-streaming,Java,Apache Spark,Spark Streaming,我们有一个spark流应用程序,它使用Gnip合规流 在旧版本的API中,法规遵从性流由一个端点提供,但现在由8个不同的端点提供 我们可以使用不同的参数运行相同的spark应用程序8次,以使用不同的端点 spark streaming中是否有方法使用8个端点并将它们合并到同一个应用程序中 我们应该为每个连接使用不同的流媒体上下文,还是一个上下文就足够了?我想您正在这里寻找Spark 阅读下面的例子 根据Spark文件Spark union: 返回一个新的数据集,其中包含 源数据集和参数
我们应该为每个连接使用不同的流媒体上下文,还是一个上下文就足够了?我想您正在这里寻找Spark 阅读下面的例子 根据Spark文件Spark union: 返回一个新的数据集,其中包含 源数据集和参数