在spark(python)中除以两个RDD的值

在spark(python)中除以两个RDD的值,python,apache-spark,rdd,division,bigdata,Python,Apache Spark,Rdd,Division,Bigdata,我在spark中有两个关键值RDD: rdd1 = [(u'Key1', 4), (u'Key2', 6), (u'Key3', 10)] rdd2 = [(u'Key1', 4), (u'Key2', 3), (u'Key3', 2)] 我通过spark函数来得到这些值的除法:(rdd3=(rdd1/rdd2)) 在这种情况下: rdd3 = [(u'Key1', 1), (u'Key2', 2), (u'Key3', 5)] 您可以加入和映射值: rdd1.join(rdd2).mapV

我在spark中有两个关键值RDD:

rdd1 = [(u'Key1', 4), (u'Key2', 6), (u'Key3', 10)]
rdd2 = [(u'Key1', 4), (u'Key2', 3), (u'Key3', 2)]
我通过spark函数来得到这些值的除法:(rdd3=(rdd1/rdd2))

在这种情况下:

rdd3 = [(u'Key1', 1), (u'Key2', 2), (u'Key3', 5)]

您可以
加入
映射值

rdd1.join(rdd2).mapValues(lambda x: x[0] / x[1])