Apache spark spark sql connect由Previor提供

Apache spark spark sql connect由Previor提供,apache-spark,pyspark,Apache Spark,Pyspark,spark似乎仍然不支持“通过Previor连接”。 如果有任何解决方法,请告诉我- 电流输入 ColA , ColB D E A B C D B C 所需输出- ColA , ColB A B B C C D D E 如果通过spark SQL有任何解决方案,请告诉我有,但这很痛苦。打字太长了,但这里有人做了 我的建议不是典型的Spark处理,而是在ORACLE或DB2和sqoop中通

spark似乎仍然不支持“通过Previor连接”。 如果有任何解决方法,请告诉我-

电流输入

ColA , ColB 
D       E
A       B 
C       D
B       C
所需输出-

ColA , ColB 
A       B
B       C 
C       D
D       E

如果通过spark SQL有任何解决方案,请告诉我

有,但这很痛苦。打字太长了,但这里有人做了

我的建议不是典型的Spark处理,而是在ORACLE或DB2和sqoop中通过DF或JDBC读取结果


通过pregel也有,但很痛苦。打字太长了,但这里有人做了

我的建议不是典型的Spark处理,而是在ORACLE或DB2和sqoop中通过DF或JDBC读取结果


同样通过pregel

谢谢,有没有可用的Python或Unix解决方案?您可以将scala转换为pysparkThanks,有没有可用的Python或Unix解决方案?您可以将scala转换为pyspark