使用python设置/运行Apache Spark时出现问题(在windows 10中)

使用python设置/运行Apache Spark时出现问题(在windows 10中),python,apache-spark,pyspark,Python,Apache Spark,Pyspark,我对spark非常陌生,所以我的问题可能会有一个我不能完全理解的“没有废话”的答案 首先,我下载了spark 1.5.2并将其解压缩。在python文件夹中,我尝试运行pyspark,但它说它需要一个main.py,因此我将init.py复制到main.py,并开始出现奇怪的语法错误。我意识到我使用的是python 2.9,所以我切换到了2.7,得到了一个不同的错误: Traceback (most recent call last): File "C:\Python27\lib\runpy

我对spark非常陌生,所以我的问题可能会有一个我不能完全理解的“没有废话”的答案

首先,我下载了spark 1.5.2并将其解压缩。在python文件夹中,我尝试运行pyspark,但它说它需要一个main.py,因此我将init.py复制到main.py,并开始出现奇怪的语法错误。我意识到我使用的是python 2.9,所以我切换到了2.7,得到了一个不同的错误:

Traceback (most recent call last):
  File "C:\Python27\lib\runpy.py", line 162, in _run_module_as_main
    "__main__", fname, loader, pkg_name)
  File "C:\Python27\lib\runpy.py", line 72, in _run_code
    exec code in run_globals
  File "C:\spark-1.5.2\python\pyspark\__main__.py", line 40, in <module>
    from pyspark.conf import SparkConf
ImportError: No module named pyspark.conf
显示错误:

Java HotSpot(TM) Client VM warning: ignoring option MaxPermSize=512M; support was removed in 8.0
Error occurred during initialization of VM
Could not reserve enough space for 2097152KB object heap  
我尝试添加“-XX:MaxHeapSize=3g”,但没有改变。注意到“支持在8.0中被删除”的评论,我下载了Java7,但这也没有改变任何事情


提前感谢

只需下载预构建版本,而不是源代码。另一方面,没有像Python2.9这样的东西。。。你是说2.6版吗?谢谢,我会试试的,它实际上是2.7.9版我的badJust下载的预构建版本,不是源代码。另一方面,没有像Python2.9这样的东西。。。你是说2.6分吗?谢谢我会试试的,实际上是2.7.9分我的错
Java HotSpot(TM) Client VM warning: ignoring option MaxPermSize=512M; support was removed in 8.0
Error occurred during initialization of VM
Could not reserve enough space for 2097152KB object heap