Scala Spark leftOuterJoin问题-leftOuterJoin不是org.apache.Spark.rdd.rdd[(String,String)]的成员

Scala Spark leftOuterJoin问题-leftOuterJoin不是org.apache.Spark.rdd.rdd[(String,String)]的成员,scala,apache-spark,Scala,Apache Spark,我正在尝试为leftOuterJoin编写一个简单的包装器。我就是这样开始的,遇到了一个奇怪的问题 import org.apache.spark.rdd.RDD import org.apache.spark.SparkContext._ import org.apache.spark.rdd.PairRDDFunctions import scala.reflect.ClassTag case class Joins(self: RDD[(String,String)]) {

我正在尝试为leftOuterJoin编写一个简单的包装器。我就是这样开始的,遇到了一个奇怪的问题

import org.apache.spark.rdd.RDD
import org.apache.spark.SparkContext._
import org.apache.spark.rdd.PairRDDFunctions
import scala.reflect.ClassTag

case class Joins(self: RDD[(String,String)]) {
        def loj(other: RDD[(String,String)]) = {
        (self.leftOuterJoin(other))
      }
    }
错误:值leftOuterJoin不是的成员 org.apache.spark.rdd.rdd[String,String]


我这里哪里出错了?

我想这只是一个突出显示错误,所以您可以添加吗

import org.apache.spark.rdd.RDD._

SparkContext.uu的行为似乎已更改,SparkContext.uu不再是强制性的,但IDE仍然需要识别正确的类型

我使用的是spark 1.2.1和import org.apache.spark.rdd.rdd。抛出的错误类rdd存在,但它没有伴随对象。