Scala 向spark rdd元素添加前缀
我的rdd中有两个字符串元素: "53 45 61","0 1 2". 我想将其压缩并映射为键值对,为每个键添加前缀“C” 预期产出:Scala 向spark rdd元素添加前缀,scala,apache-spark,hadoop,pyspark,apache-spark-sql,Scala,Apache Spark,Hadoop,Pyspark,Apache Spark Sql,我的rdd中有两个字符串元素: "53 45 61","0 1 2". 我想将其压缩并映射为键值对,为每个键添加前缀“C” 预期产出: C53 -> 0, C45-> 1, C61-> 2 目前这是我正在使用的代码 val prefix = "C" newRDD = RDD.map(x=>(prefix + (x._1.split(" ")) zip x._2.split(" ")) 接收结果如下: 53 -> 0, C45-> 1, 61->
C53 -> 0, C45-> 1, C61-> 2
目前这是我正在使用的代码
val prefix = "C"
newRDD = RDD.map(x=>(prefix + (x._1.split(" ")) zip x._2.split(" "))
接收结果如下:
53 -> 0, C45-> 1, 61-> 2 .
我在这里遗漏了什么?您当前正在将前缀添加到
数组(53、45、61)
(不知道您可以这样做)。您的意思是执行x.\u 1.split(“”).map(前缀+\u)
将其添加到每个元素中吗