Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala Spark-将元组转换为制表符分隔的字符串_Scala_Apache Spark - Fatal编程技术网

Scala Spark-将元组转换为制表符分隔的字符串

Scala Spark-将元组转换为制表符分隔的字符串,scala,apache-spark,Scala,Apache Spark,我想创建一个函数,它接受元组的RDD,并将每个元组转换为以制表符分隔的字符串。我希望函数能够处理任何大小的元组 如果我已经创建了此RDD,我可以使用以下方法获得所需的输出: rdd.map(line => (0 to (line.productArity-1)).map(line.productElement(_)).toList.mkString("\t")) 如何将这段代码转换为一个接受元组RDD的函数,或者是否有一个好的库已经做到了这一点?类似的方法应该可以工作: def toTa

我想创建一个函数,它接受元组的RDD,并将每个元组转换为以制表符分隔的字符串。我希望函数能够处理任何大小的元组

如果我已经创建了此RDD,我可以使用以下方法获得所需的输出:

rdd.map(line => (0 to (line.productArity-1)).map(line.productElement(_)).toList.mkString("\t"))

如何将这段代码转换为一个接受元组RDD的函数,或者是否有一个好的库已经做到了这一点?

类似的方法应该可以工作:

def toTab[T <: Product](rdd:RDD[T]) = rdd.map(_.productIterator.mkString("\t"))
def toTab[T