Installation 安装火花塞。无法使用pyspark打开IPython笔记本电脑
以下是指向错误的链接: 我试图让spark的独立安装工作,但我得到了这个错误。我在环境变量中将JAVA\u HOME设置为“C:\ProgramFiles(x86)\JAVA\jre1.8.0\u 31” 在我输入pyspark之后,iPhon笔记本应该会在一个新选项卡中打开,但它不会 它似乎找不到里面有“笔记本”的东西,但不确定 谢谢Installation 安装火花塞。无法使用pyspark打开IPython笔记本电脑,installation,apache-spark,ipython,ipython-notebook,pyspark,Installation,Apache Spark,Ipython,Ipython Notebook,Pyspark,以下是指向错误的链接: 我试图让spark的独立安装工作,但我得到了这个错误。我在环境变量中将JAVA\u HOME设置为“C:\ProgramFiles(x86)\JAVA\jre1.8.0\u 31” 在我输入pyspark之后,iPhon笔记本应该会在一个新选项卡中打开,但它不会 它似乎找不到里面有“笔记本”的东西,但不确定 谢谢 马特花了2.5个小时后,问题被设置为IPYTHON_OPTS=“notebook”应该是IPYTHON_OPTS=notebook。没有报价 由于您一直在窗口中
马特花了2.5个小时后,问题被设置为IPYTHON_OPTS=“notebook”应该是IPYTHON_OPTS=notebook。没有报价 由于您一直在窗口中执行,您需要首先设置IPYTHON_OPTS变量,然后执行命令以启动pyspark
我也尝试过这种方法;这行不通。我已经在Windows10和Windows7上成功地使用了以下内容,使用Enthound Corporation作为我的IDE和IPython笔记本 第一步。检查Python和Spark的环境变量。可以直接从命令提示符启动pyspark吗 第二步。启动Python(或IPython) 第三步。使用(并根据您的机器进行调整)以下代码:
import os
import sys
spark_home = os.environ.get('SPARK_HOME', None)
if not spark_home:
raise ValueError('SPARK_HOME environment variable is not set')
sys.path.insert(0, os.path.join(spark_home, 'python'))
sys.path.insert(0, os.path.join(spark_home, 'C:/spark-1.6.0-bin-hadoop2.6/python/lib/py4j-0.9-src.zip'))
execfile(os.path.join(spark_home, 'python/pyspark/shell.py'))
如果你按照我的步骤去做,你应该让斯帕克振作起来,开始跑步
Windows是一场灾难。将其安装在a上,然后从那里运行Spark/IPython。这会让你的生活没有压力。我无法在笔记本上运行pyspark。当我运行以下命令时:IPYTHON_OPTS=notebook./bin/pyspark,它表示IPYTHON_OPTS不被识别为内部或外部命令