Apache spark 未定义名称spark

Apache spark 未定义名称spark,apache-spark,pyspark,Apache Spark,Pyspark,试图遵循spark教程,但出现以下错误- “未定义名称“spark” 如果spark版本为1.0.1,则不应使用2.2.0版的教程。这些版本之间有重大变化 在这个网站上你可以找到 在1.6.0教程之后,您必须使用textFile=sc.textFile(“README.md”)而不是textFile=spark.read.text(“README.md”)您的spark版本是什么?版本-spark 1.0.1如果不是2.0+,请更新到1.6。这将是一个更容易的学习体验。:) Using Pyt

试图遵循spark教程,但出现以下错误-

“未定义名称“spark”


如果spark版本为1.0.1,则不应使用2.2.0版的教程。这些版本之间有重大变化

在这个网站上你可以找到


在1.6.0教程之后,您必须使用
textFile=sc.textFile(“README.md”)
而不是
textFile=spark.read.text(“README.md”)

您的spark版本是什么?版本-spark 1.0.1如果不是2.0+,请更新到1.6。这将是一个更容易的学习体验。:)
Using Python version 2.6.6 (r266:84292, Nov 22 2013 12:16:22)
SparkContext available as sc.
>>> import pyspark
>>> textFile = spark.read.text("README.md")
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
NameError: name 'spark' is not defined
./bin/pyspark --master local[*]