Apache spark 无法在windows上运行pyspark

Apache spark 无法在windows上运行pyspark,apache-spark,pyspark,Apache Spark,Pyspark,一点背景: 1.运行Windows7 2.我已经安装了python 2.7 3.我重新安装了JDK 8 4.我安装了Spark并按照步骤设置环境变量等(请参阅-) 5.当我运行spark shell时,它会抛出大量错误,但最终会显示“spark”徽标和scala终端 问题是:- 但当我运行pyspark时,我会出现以下错误: PS C:\Users\harleen.singh>pyspark win32上的Python 2.7.13(v2.7.13:a06454b1afa1,2016年12月

一点背景: 1.运行Windows7 2.我已经安装了python 2.7 3.我重新安装了JDK 8 4.我安装了Spark并按照步骤设置环境变量等(请参阅-) 5.当我运行spark shell时,它会抛出大量错误,但最终会显示“spark”徽标和scala终端

问题是:-

但当我运行pyspark时,我会出现以下错误:

PS C:\Users\harleen.singh>pyspark
win32上的Python 2.7.13(v2.7.13:a06454b1afa1,2016年12月17日,20:42:59)[MSC v.1500 32位(英特尔)]
有关详细信息,请键入“帮助”、“版权”、“信用证”或“许可证”。
17/04/04 15:18:47警告NativeCodeLoader:无法为您的平台加载本机hadoop库。。。使用内置java cl
在适用的情况下进行评估
回溯(最近一次呼叫最后一次):
文件“C:\Spark\bin\..\python\pyspark\shell.py”,第43行,在
spark=SparkSession.builder\
文件“C:\Spark\python\pyspark\sql\session.py”,第179行,在getOrCreate中
session._jsparkSession.sessionState().conf().setConfString(键,值)
文件“C:\Spark\python\lib\py4j-0.10.4-src.zip\py4j\java_gateway.py”,第1133行,在u调用中__
文件“C:\Spark\python\pyspark\sql\utils.py”,第79行,deco格式
引发IllegalArgumentException(s.split(“:”,1)[1],stackTrace)

pyspark.sql.utils.IllegalArgumentException:u“实例化'org.apache.spark.sql.hive.HiveSessionState'时出错:”
执行此操作->从pyspark导入SparkContext;sc=sparkContext()它不能解决它。当我做sc.xxxxxxxx时,它再次给我错误