无法在virtualenv中加载pyspark

无法在virtualenv中加载pyspark,pyspark,virtualenv,jupyter-lab,apache-spark-2.1.1,Pyspark,Virtualenv,Jupyter Lab,Apache Spark 2.1.1,我已经在python virtualenv中安装了pyspark。我还安装了virtualenv中新发布的jupyterlab。我无法在jupyter笔记本中启动pyspark,因为我有可用的SparkContext变量。首先启动virtualenv source venv/bin/activate export SPARK_HOME={path_to_venv}/lib/python2.7/site-packages/pyspark export PYSPARK_DRIVER_PYTHON=j

我已经在python virtualenv中安装了pyspark。我还安装了virtualenv中新发布的jupyterlab。我无法在jupyter笔记本中启动pyspark,因为我有可用的SparkContext变量。

首先启动virtualenv

source venv/bin/activate
export SPARK_HOME={path_to_venv}/lib/python2.7/site-packages/pyspark
export PYSPARK_DRIVER_PYTHON=jupyter-lab
在此之前,我希望您已经完成了:
pip安装pyspark
pip安装jupyterlab
在您的virtualenv中

source venv/bin/activate
export SPARK_HOME={path_to_venv}/lib/python2.7/site-packages/pyspark
export PYSPARK_DRIVER_PYTHON=jupyter-lab
要进行检查,打开jupyterlab后,在jupyterlab中的框中键入
sc
,您应该可以使用SparkContext对象,并且输出应如下所示:

SparkContext
Spark UI
Version
v2.2.1
Master
local[*]
AppName
PySparkShell

您需要使用virtualenv导出$PYSPARK\u PYTHON

export PYSPARK_PYTHON={path/to/your/virtualenv}/bin/python
这解决了我的问题