如何使用Scala在Spark core中将[(String,String)]转换为[String,String]
如何使用Scala在spark core中转换org.apache.spark.rdd.rdd[(String,String)]=org.apache.spark.rdd.rdd[String,String] INPUT (2020-01-19,ERROR) (2020-01-19,INFO) 输入 (2020-01-19,错误) (2020-01-19,信息) 输出 2020-01-19,错误 2020-01-19,信息 如何使用Scala在spark core中转换org.apache.spark.rdd.rdd[(String,String)]=org.apache.spark.rdd.rdd[String,String] 您无法转换为如何使用Scala在Spark core中将[(String,String)]转换为[String,String],scala,apache-spark,Scala,Apache Spark,如何使用Scala在spark core中转换org.apache.spark.rdd.rdd[(String,String)]=org.apache.spark.rdd.rdd[String,String] INPUT (2020-01-19,ERROR) (2020-01-19,INFO) 输入 (2020-01-19,错误) (2020-01-19,信息) 输出 2020-01-19,错误 2020-01-19,信息 如何使用Scala在spark core中转换org.apache.sp
org.apache.spark.rdd.rdd[String,String]
,因为您可以从
,它只接受一个类型参数,而不是两个。您无法转换为不存在的内容。看起来您来自Java spark。在Scala中,
javapairdd
的等价物只是RDD[(String,String)]
:在Spark Scala中,RDD[(K,V)]
由于隐式转换(请参见)没有RDD[String,String]
这样的东西。你想实现什么?使用数据帧怎么样?你试过了吗?还要检查如何编写定义良好的可重复的Spark问题。步骤1:提交pull请求,让RDD获取两个类型参数(做你想让它做的任何事情,但你没有说)。第三步:利润。
OUTPUT
2020-01-19,ERROR
2020-01-19,INFO