Pyspark 已启用进程隔离的群集上尚不支持Databricks Connect

Pyspark 已启用进程隔离的群集上尚不支持Databricks Connect,pyspark,azure-active-directory,databricks,azure-databricks,databricks-connect,Pyspark,Azure Active Directory,Databricks,Azure Databricks,Databricks Connect,我正在使用Azure Databricks(6.5运行时),并尝试将其连接到IDE。但是,为了在集群中启用AAD凭证传递,我们需要将以下属性设置为true spark.databricks.passthrough.enabled true spark.databricks.pyspark.enableProcessIsolation true 但这会导致databricks连接测试失败并出现错误 Caused by: java.lang.IllegalArgumentException: re

我正在使用Azure Databricks(6.5运行时),并尝试将其连接到IDE。但是,为了在集群中启用AAD凭证传递,我们需要将以下属性设置为true

spark.databricks.passthrough.enabled true
spark.databricks.pyspark.enableProcessIsolation true
但这会导致databricks连接测试失败并出现错误

Caused by: java.lang.IllegalArgumentException: requirement failed: Databricks Connect is not yet supported on the cluster with process isolation enabled

有什么解决办法吗?如果没有,那么是否计划在短期内支持此用例?

确保以下配置设置为true

 spark.databricks.libraryIsolation.processIsolation.enabled = true

确保以下配置设置为true

 spark.databricks.libraryIsolation.processIsolation.enabled = true

如果它对你有用,你能帮我吗?它可能会帮助更多有类似问题的人。不,这不起作用,当在HC群集上启用creds passthrough时,它会启用processIsolation,databricks connect库还不能与之兼容。如果它对您有用,您能吗?它可能会帮助更多有类似问题的人。不,这不起作用,当在HC集群上启用creds passthrough时,它会启用processIsolation,databricks connect库还不能与之兼容。