Pyspark 正在尝试在Databrick上安装H2O。如何在Databricks中安装第三方软件包?

Pyspark 正在尝试在Databrick上安装H2O。如何在Databricks中安装第三方软件包?,pyspark,databricks,azure-databricks,Pyspark,Databricks,Azure Databricks,我现在正在玩Databricks,并在网上观看演示。演示需要安装H2O。在Databricks中,我尝试了以下方法: click clusters (then click on the name of the cluster) click libraries click install new finally, click maven $SPARK_HOME/bin/spark-shell --packages ai.h2o:sparkling-water-packag

我现在正在玩Databricks,并在网上观看演示。演示需要安装H2O。在Databricks中,我尝试了以下方法:

   click clusters (then click on the name of the cluster)
   click libraries
   click install new
   finally, click maven
$SPARK_HOME/bin/spark-shell --packages ai.h2o:sparkling-water-package_2.12:3.30.0.6-1-3.0
在坐标框中,我粘贴以下内容:

   click clusters (then click on the name of the cluster)
   click libraries
   click install new
   finally, click maven
$SPARK_HOME/bin/spark-shell --packages ai.h2o:sparkling-water-package_2.12:3.30.0.6-1-3.0
我遵循下面链接中的说明


如何在Databricks中安装第三方软件包?谢谢

要使第三方或本地生成的代码可用于集群上运行的笔记本电脑和作业,可以安装库。库可以用Python、Java、Scala和R编写。您可以上载Java、Scala和Python库,并指向PyPI、Maven和CRAN存储库中的外部包

安装第三方库的步骤:

方法1:使用Maven

步骤1:创建Databricks群集

步骤2:选择创建的集群

Step3:Select Libraries=>Install New=>Select Library Source=“Maven”=>Coordinates=>Search Packages=>Select Maven Central=>搜索所需的软件包。示例:(ai.h20)=>选择所需的版本(sparkling-water-package_2.11:3.30.0.6-1-2.4)=>安装

方法2:使用PYPI

步骤1:创建Databricks群集

步骤2:选择创建的集群

第三步:选择库=>安装新=>选择库Source=“PyPI”=>坐标=>输入软件包=>h2o-pysparkling-2.4=>安装

方法3:使用pip安装

%sh
pip install h2o-pysparkling-2.4==3.30.0.6-1


有关更多详细信息,请参阅“搜索软件包”下的“

,我看到了Spark软件包,在观看您的演示之前,我没有看到Maven Central。这正是我想要的!谢谢很高兴知道这有帮助。