Scala Map()函数在spark中给出错误
我是新的火花编程。我遇到了一个场景,将RDD的每个元素映射到另一种格式。所以我试着得到元组的第二个元素(x.\u 2)。但它给出了一个错误值_2不是数组[String]的成员 我错过了什么吗。。。Scala Map()函数在spark中给出错误,scala,apache-spark,Scala,Apache Spark,我是新的火花编程。我遇到了一个场景,将RDD的每个元素映射到另一种格式。所以我试着得到元组的第二个元素(x.\u 2)。但它给出了一个错误值_2不是数组[String]的成员 我错过了什么吗。。。 请帮我翻译一下……问题在于它不是你所期望的元组。它是一个数组[Array[String]]。您可以使用array(1) 问题在于它不是您所期望的元组。它是一个数组[Array[String]]。您可以使用array(1) month1.map(x => x(1))
请帮我翻译一下……问题在于它不是你所期望的元组。它是一个
数组[Array[String]]
。您可以使用array(1)
问题在于它不是您所期望的元组。它是一个
数组[Array[String]]
。您可以使用array(1)
month1.map(x => x(1))