Scala Spark leftOuterJoin问题-leftOuterJoin不是org.apache.Spark.rdd.rdd[(String,String)]的成员
我正在尝试为leftOuterJoin编写一个简单的包装器。我就是这样开始的,遇到了一个奇怪的问题Scala Spark leftOuterJoin问题-leftOuterJoin不是org.apache.Spark.rdd.rdd[(String,String)]的成员,scala,apache-spark,Scala,Apache Spark,我正在尝试为leftOuterJoin编写一个简单的包装器。我就是这样开始的,遇到了一个奇怪的问题 import org.apache.spark.rdd.RDD import org.apache.spark.SparkContext._ import org.apache.spark.rdd.PairRDDFunctions import scala.reflect.ClassTag case class Joins(self: RDD[(String,String)]) {
import org.apache.spark.rdd.RDD
import org.apache.spark.SparkContext._
import org.apache.spark.rdd.PairRDDFunctions
import scala.reflect.ClassTag
case class Joins(self: RDD[(String,String)]) {
def loj(other: RDD[(String,String)]) = {
(self.leftOuterJoin(other))
}
}
错误:值leftOuterJoin不是的成员
org.apache.spark.rdd.rdd[String,String]
我这里哪里出错了?我想这只是一个突出显示错误,所以您可以添加吗
import org.apache.spark.rdd.RDD._
SparkContext.uu的行为似乎已更改,SparkContext.uu不再是强制性的,但IDE仍然需要识别正确的类型 我使用的是spark 1.2.1和import org.apache.spark.rdd.rdd。抛出的错误类rdd存在,但它没有伴随对象。