pyspark和python未作为HDP2.6.0.3-8堆栈的一部分安装

pyspark和python未作为HDP2.6.0.3-8堆栈的一部分安装,pyspark,hdp,spark2,Pyspark,Hdp,Spark2,我有一个安装了2.6.0.3的HDP集群。在一个未连接到Ambari的网关节点中,我安装了hdp堆栈。通过安装,我安装了spark2。到目前为止一切正常。但是当我查看它的时候,我没有在里面找到任何python或pyspark包??我必须分开安装吗?为什么pyspark软件包没有使用HDP2.6.0.3-8堆栈中的spark2安装?如果第一次安装没有在spark2中安装python。你必须分开做。 首先使用命令“yum-search-spark2”进行检查,您将看到一些包含python的软件包列表

我有一个安装了2.6.0.3的HDP集群。在一个未连接到Ambari的网关节点中,我安装了hdp堆栈。通过安装,我安装了spark2。到目前为止一切正常。但是当我查看它的时候,我没有在里面找到任何python或pyspark包??我必须分开安装吗?为什么pyspark软件包没有使用HDP2.6.0.3-8堆栈中的spark2安装?

如果第一次安装没有在spark2中安装python。你必须分开做。 首先使用命令“yum-search-spark2”进行检查,您将看到一些包含python的软件包列表。使用该python包名并执行“yum安装python\u-package\u-name”。它将在/usr/hdp/2.6.3.0-8/spark2/文件夹下安装python