Apache spark 为下一个减速器作业合并两个JavaRDD
我正在尝试组合两个JavaPairDD,以便在组合的数据集上执行reduceByKey操作,如下所示:Apache spark 为下一个减速器作业合并两个JavaRDD,apache-spark,hadoop2,Apache Spark,Hadoop2,我正在尝试组合两个JavaPairDD,以便在组合的数据集上执行reduceByKey操作,如下所示: JavaPairRDData1= JavaPairRDD数据2= 我想要一个包含data1和data2的新数据集,类似于: JavaPairRDD数据_总计=(数据1+数据2) 这样我就可以在组合数据集上按键进行缩减: javapairdd输出= 数据总量.reduceByKey(…我的reduce函数…) 组合数据1和数据2的最佳方式是什么?或者,解决这个问题的最佳方法是什么 非常感谢
JavaPairRDData1= JavaPairRDD数据2= 我想要一个包含data1和data2的新数据集,类似于: JavaPairRDD数据_总计=(数据1+数据2) 这样我就可以在组合数据集上按键进行缩减: javapairdd输出= 数据总量.reduceByKey(…我的reduce函数…)
组合数据1和数据2的最佳方式是什么?或者,解决这个问题的最佳方法是什么
非常感谢 您可以使用
union
:
// Return the union of this RDD and another one.
union(JavaPairRDD<K,V> other)
//返回此RDD和另一个RDD的并集。
联合会(JavaPairdd其他)
您可以使用union
:
// Return the union of this RDD and another one.
union(JavaPairRDD<K,V> other)
//返回此RDD和另一个RDD的并集。
联合会(JavaPairdd其他)
您可以使用union
:
// Return the union of this RDD and another one.
union(JavaPairRDD<K,V> other)
//返回此RDD和另一个RDD的并集。
联合会(JavaPairdd其他)
您可以使用union
:
// Return the union of this RDD and another one.
union(JavaPairRDD<K,V> other)
//返回此RDD和另一个RDD的并集。
联合会(JavaPairdd其他)