安装Spark并使用Python运行它
我对R比Python更熟悉,但我听说在Python中使用Spark要比在R中使用Spark容易得多,所以我尝试在Python中运行Spark。我正在为Python使用忍者IDE安装Spark并使用Python运行它,python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我对R比Python更熟悉,但我听说在Python中使用Spark要比在R中使用Spark容易得多,所以我尝试在Python中运行Spark。我正在为Python使用忍者IDE 我下载了Spark-1.5.0的文件,但现在我不知道该怎么办。我去了。我正在使用Windows 10,并使用命令提示符转到我的spark文件夹,然后键入build/mvn-Pyarn-Phadoop-2.4-Dhadoop.version=2.4.0-DskipTests clean package。然而,它接着说,构建
我下载了Spark-1.5.0的文件,但现在我不知道该怎么办。我去了。我正在使用Windows 10,并使用命令提示符转到我的spark文件夹,然后键入
build/mvn-Pyarn-Phadoop-2.4-Dhadoop.version=2.4.0-DskipTests clean package
。然而,它接着说,构建不被识别为内部或外部命令、可操作程序或批处理文件
。我这样做对吗?或者我应该继续执行另一个步骤吗?您在windows中,因此除非您使用cygwin,否则它可能是build\mvn
。如果我尝试build/mvn
是Bash脚本,我会遇到同样的错误。它无法直接在Windows上工作。可能是的副本