Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Scala Map()函数在spark中给出错误_Scala_Apache Spark - Fatal编程技术网

Scala Map()函数在spark中给出错误

Scala Map()函数在spark中给出错误,scala,apache-spark,Scala,Apache Spark,我是新的火花编程。我遇到了一个场景,将RDD的每个元素映射到另一种格式。所以我试着得到元组的第二个元素(x.\u 2)。但它给出了一个错误值_2不是数组[String]的成员 我错过了什么吗。。。 请帮我翻译一下……问题在于它不是你所期望的元组。它是一个数组[Array[String]]。您可以使用array(1) 问题在于它不是您所期望的元组。它是一个数组[Array[String]]。您可以使用array(1) month1.map(x => x(1))

我是新的火花编程。我遇到了一个场景,将RDD的每个元素映射到另一种格式。所以我试着得到元组的第二个元素(x.\u 2)。但它给出了一个错误值_2不是数组[String]的成员

我错过了什么吗。。。
请帮我翻译一下……

问题在于它不是你所期望的元组。它是一个
数组[Array[String]]
。您可以使用
array(1)


问题在于它不是您所期望的元组。它是一个
数组[Array[String]]
。您可以使用
array(1)

month1.map(x => x(1))