Apache spark Pyspark Ipython笔记本添加依赖项

Apache spark Pyspark Ipython笔记本添加依赖项,apache-spark,pyspark,ipython-notebook,jupyter-notebook,Apache Spark,Pyspark,Ipython Notebook,Jupyter Notebook,我正在运行Pyspark和ipython笔记本,我正在尝试向spark环境添加一个jar文件。 我试着用sc.addjar来添加jar,但效果不好。还有其他建议吗? 我知道你可以做spark submit——jars,但我正在做spark submit 我还尝试了env variable SPARK_CLASS_PATH,将jar放在该文件夹中,并重新启动了ipython/SPARK,它将其作为jar进行拾取,但无法执行任何操作。您找到解决方案了吗?

我正在运行Pyspark和ipython笔记本,我正在尝试向spark环境添加一个jar文件。 我试着用sc.addjar来添加jar,但效果不好。还有其他建议吗? 我知道你可以做spark submit——jars,但我正在做spark submit
我还尝试了env variable SPARK_CLASS_PATH,将jar放在该文件夹中,并重新启动了ipython/SPARK,它将其作为jar进行拾取,但无法执行任何操作。

您找到解决方案了吗?