Python ModuleNotFoundError:没有名为';numpy';在Cloudera QuickStart VM cdh5.5.0中,Spark 2.4.7

Python ModuleNotFoundError:没有名为';numpy';在Cloudera QuickStart VM cdh5.5.0中,Spark 2.4.7,python,numpy,apache-spark,cloudera,Python,Numpy,Apache Spark,Cloudera,我正在学习在一台个人计算机上使用Spark,该计算机具有运行Hadoop的硬件。以下是配置:Cloudera CDH 5.5.0 w/Cloudera Quickstart、Spark 2.4.7、JDK1.8.0_181、Hadoop 2.6.0、Python 3.6.9在运行Python脚本(从YouTube上的Udemy视频复制)时,我在类似的在线论坛讨论后遇到并修复了几个错误。但我无法找到以下错误的解决方案 顺便说一句,我知道如何在普通的非虚拟环境中用Python进行pip安装或cond

我正在学习在一台个人计算机上使用Spark,该计算机具有运行Hadoop的硬件。以下是配置:Cloudera CDH 5.5.0 w/Cloudera Quickstart、Spark 2.4.7、JDK1.8.0_181、Hadoop 2.6.0、Python 3.6.9在运行Python脚本(从YouTube上的Udemy视频复制)时,我在类似的在线论坛讨论后遇到并修复了几个错误。但我无法找到以下错误的解决方案

顺便说一句,我知道如何在普通的非虚拟环境中用Python进行pip安装或conda安装。但是当我在虚拟机的Linux中时,我甚至不知道从哪里开始。另外,我刚刚在我的虚拟机上安装了Python 3.6.9,它甚至在提示符处显示为Python版本。但是我怀疑默认路径有问题,因为我的'/usr/lib'目录在列表中只显示'python2.6'子目录。但是,与最新Python安装相关的所有文件都位于“/opt/rh/rh-python36/root/usr/bin/Python”中,没有我的明确首选项/选项。就像Windows环境一样,我假设Linux环境也允许有两个版本的Python,用户可以通过修改PATH变量指向的位置在这两个版本之间切换。我想将Python3作为默认环境

我是个新手,如果能给我一点手握式的建议,我将不胜感激。如有任何及时的解决方案/建议,将不胜感激。提前感谢您抽出时间

[root@quickstartSpark]#Spark提交MovieRecommendationALSEngineSparkDF.py

20/10/14 10:04:08警告NativeCodeLoader:无法为您的平台加载本机hadoop库。。。在适用的情况下使用内置java类

回溯(最近一次呼叫最后一次): 文件“/home/cloudera/Spark/MovieRecommendationALSEngineSparkDF.py”,第45行,in

from pyspark.ml.recommendation import ALS
文件“/usr/local/spark/python/lib/pyspark.zip/pyspark/ml/init.py”,第22行,在

文件“/usr/local/spark/python/lib/pyspark.zip/pyspark/ml/base.py”,第24行,在

文件“/usr/local/spark/python/lib/pyspark.zip/pyspark/ml/param/init.py”,第26行,在

ModuleNotFoundError:没有名为“numpy”的模块

log4j:WARN找不到记录器(org.apache.spark.util.ShutdownHookManager)的appender

log4j:警告请正确初始化log4j系统

log4j:有关更多信息,请参阅警告