如何在Databricks pyspark笔记本中包含额外的库/包?

如何在Databricks pyspark笔记本中包含额外的库/包?,pyspark,databricks,Pyspark,Databricks,通常情况下,我们需要在pyspark中导入一些额外的库,Databricks为实践pyspark提供了一个很好的环境,但是,是否可以在那里安装所需的库?如果是,如何进行 或者是否存在使用非内置库/包的变通方法 谢谢。根据箱子和包装类型,有多种方法。如果是PyPI包,那么最简单的方法就是使用 dbutils dbutils.library.installPyPI(“pypipackage”,version=“version”,repo=“repo”,extras=“extras”) 也可以将库

通常情况下,我们需要在pyspark中导入一些额外的库,Databricks为实践pyspark提供了一个很好的环境,但是,是否可以在那里安装所需的库?如果是,如何进行

或者是否存在使用非内置库/包的变通方法


谢谢。

根据箱子和包装类型,有多种方法。如果是PyPI包,那么最简单的方法就是使用

dbutils
dbutils.library.installPyPI(“pypipackage”,version=“version”,repo=“repo”,extras=“extras”)
也可以将库附加到集群。更多信息可以在这里找到

根据箱子和包装类型,有多种方法。如果是PyPI包,那么最简单的方法就是使用

dbutils
dbutils.library.installPyPI(“pypipackage”,version=“version”,repo=“repo”,extras=“extras”)
也可以将库附加到集群。更多信息可以在这里找到

谢谢你,拉维。谢谢你,拉维。