Python 如何使用Django运行Pypark?

Python 如何使用Django运行Pypark?,python,django,hadoop,apache-spark,pyspark,Python,Django,Hadoop,Apache Spark,Pyspark,我正在开发一个从data lake检索数据的web应用程序,数据存储在HDFS中,我想使用pyspark执行一些分析。换句话说,我们在ipython笔记本中有一个脚本,我们希望将它与Django一起使用。我看到pyspark在上也可用,所以我用pip安装了它,同样的脚本作为.py导入。当我以python myscript.py运行它时,笔记本中的文件运行良好。因此,如果我在Django中导入该脚本,它也应该可以正常工作。那么,这是正确的方法,还是我必须运行spark submit myscrip

我正在开发一个从data lake检索数据的web应用程序,数据存储在HDFS中,我想使用pyspark执行一些分析。换句话说,我们在ipython笔记本中有一个脚本,我们希望将它与Django一起使用。我看到pyspark在上也可用,所以我用pip安装了它,同样的脚本作为
.py导入。当我以
python myscript.py
运行它时,笔记本中的文件运行良好。因此,如果我在Django中导入该脚本,它也应该可以正常工作。那么,这是正确的方法,还是我必须运行
spark submit myscript.py
?我想在群集模式下使用Spark

你找到办法了吗?我也遇到了同样的问题。@AshrithGande使用findspark,@AshrithGande我使用findspark,但我无法加载我的模型
model=RandomForestRegressionModel.load('model/')
我提交了你提到的什么?