Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/apache-spark/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何从conda';内部添加Python模块;要提交的站点包目录?_Python_Apache Spark_Pyspark_Fuzzywuzzy_Spark Submit - Fatal编程技术网

如何从conda';内部添加Python模块;要提交的站点包目录?

如何从conda';内部添加Python模块;要提交的站点包目录?,python,apache-spark,pyspark,fuzzywuzzy,spark-submit,Python,Apache Spark,Pyspark,Fuzzywuzzy,Spark Submit,我需要运行PySpark应用程序(v1.6.3)。有--py files标志可以添加.zip、.egg或.py文件。如果我在/usr/anaconda2/lib/python2.7/site packages/fuzzywuzzy上有一个Python包/模块,我将如何包含整个模块 在这个目录中,我注意到一些*.py和*.pyc文件 fuzz.py process.py StringMatcher.py string_processing.py utils.py 我是否需要逐一包括这些内容?比

我需要运行PySpark应用程序(v1.6.3)。有
--py files
标志可以添加.zip、.egg或.py文件。如果我在
/usr/anaconda2/lib/python2.7/site packages/fuzzywuzzy
上有一个Python包/模块,我将如何包含整个模块

在这个目录中,我注意到一些*.py和*.pyc文件

  • fuzz.py
  • process.py
  • StringMatcher.py
  • string_processing.py
  • utils.py
我是否需要逐一包括这些内容?比如说

spark-submit \
 --py-files /usr/anaconda2/lib/python2.7/site-packages/fuzzywuzzy/fuzz.py,/usr/anaconda2/lib/python2.7/site-packages/fuzzywuzzy/process.py,/usr/anaconda2/lib/python2.7/site-packages/fuzzywuzzy/StringMatcher.py,/usr/anaconda2/lib/python2.7/site-packages/fuzzywuzzy/string_processing.py,/usr/anaconda2/lib/python2.7/site-packages/fuzzywuzzy/utils.py
有没有更简单的方法

  • 我应该试着找到.egg还是.zip并使用它(例如)
  • 我能把这个目录压缩一下并把它传进来吗

如有任何提示或建议,将不胜感激。实际上,我需要更多由conda管理的Python模块

我建议换个方向做。将
pyspark
安装到Anaconda上,包括:

conda install -c conda-forge pyspark=2.1.1

我认为那不管用(还没试过)。但是,试想一下,为什么将pyspark安装到conda环境会有助于在运行时安装群集可用的第三方库?将pyspark安装到conda环境后,您将能够将Spark与其他随Anaconda安装的软件包一起使用,包括标准Anaconda软件包和额外安装的软件包。Spark是否为
1.6.3
?或者我应该使用
pyspark=1.6.3
。如果您需要Spark 1.6.3,您应该使用pyspark=1.6.3的可能副本