如何使用Python在Spark Streaming中获取笛卡尔数据流?

如何使用Python在Spark Streaming中获取笛卡尔数据流?,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我有一个包含用户模型的数据流,我想通过python API创建用户笛卡尔 我查过了。 接下来我编写了创建用户笛卡尔的脚本 user_cartesian = user_models.transform(lambda user: user.cartesian(user)) 但是,下一个错误发生了 java.lang.ClassCastException: org.apache.spark.api.java.JavaPairRDD cannot be cast to org.apache.spark

我有一个包含用户模型的数据流,我想通过python API创建用户笛卡尔

我查过了。
接下来我编写了创建用户笛卡尔的脚本

user_cartesian = user_models.transform(lambda user: user.cartesian(user))
但是,下一个错误发生了

java.lang.ClassCastException: org.apache.spark.api.java.JavaPairRDD cannot be cast to org.apache.spark.api.java.JavaRDD
user\u models
是包含用户实例的常规数组数据流,如
[user1,user2…]
,不包含成对(元组)实例。
我不知道为什么会发生这种事。

如果有人有什么建议,请告诉我。

谢谢你告诉我链接。我理解Python流API不能使用笛卡尔函数。如果我需要笛卡尔数据流,我必须使用Scala或JavaAPI?你知道Python API的另一种方式吗?谢谢你告诉我链接。我理解Python流API不能使用笛卡尔函数。如果我需要笛卡尔数据流,我必须使用Scala或JavaAPI?你知道Python API的另一种方法吗?