Apache spark Spark错误-值文本文件不是org.apache.Spark.sparkcontext的成员

Apache spark Spark错误-值文本文件不是org.apache.Spark.sparkcontext的成员,apache-spark,apache-spark-sql,Apache Spark,Apache Spark Sql,我刚刚开始使用ApacheSpark。当我尝试对文件进行RDD时,会出现以下错误: 值Textfile不是org.apache.spark.SparkContext的成员 这是我键入的内容: val data1=sc.textfile(“README.md”) 我有带火花的AmazonEMR。好的,刚刚发现它区分大小写。这需要是textFile(带有F Cap)。 我希望这能帮助别人

我刚刚开始使用ApacheSpark。当我尝试对文件进行RDD时,会出现以下错误: 值Textfile不是org.apache.spark.SparkContext的成员

这是我键入的内容:

val data1=sc.textfile(“README.md”)


我有带火花的AmazonEMR。

好的,刚刚发现它区分大小写。这需要是textFile(带有F Cap)。 我希望这能帮助别人