Apache spark 从本地计算机连接到数据磁盘时出错

Apache spark 从本地计算机连接到数据磁盘时出错,apache-spark,databricks,azure-databricks,databricks-connect,Apache Spark,Databricks,Azure Databricks,Databricks Connect,我正试图从我的Mac(Mojave)连接到Databricks 我做了一个pip安装-U databricks connect==5.5.* 我启动了一个spark shell,但是当我尝试在spark中查询时,我得到了以下错误 原因:com.databricks.service.SparkServiceConnectionException:无效令牌 To connect to a Databricks cluster, you must specify an API token. API T

我正试图从我的Mac(Mojave)连接到Databricks

我做了一个
pip安装-U databricks connect==5.5.*

我启动了一个spark shell,但是当我尝试在spark中查询时,我得到了以下错误

原因:com.databricks.service.SparkServiceConnectionException:无效令牌

To connect to a Databricks cluster, you must specify an API token.
API Token: The API token used to confirm your identity to Databricks
  - Learn more about API tokens here: https://docs.databricks.com/api/latest/authentication.html#generate-a-token
  - Get current value: spark.conf.get("spark.databricks.service.token")
  - Set via conf: spark.conf.set("spark.databricks.service.token", <your API token>)
  - Set via environment variable: export DATABRICKS_API_TOKEN=<your API token>
要连接到Databricks群集,必须指定API令牌。
API令牌:用于向Databricks确认身份的API令牌
-在此处了解有关API令牌的更多信息:https://docs.databricks.com/api/latest/authentication.html#generate-代币
-获取当前值:spark.conf.Get(“spark.databricks.service.token”)
-通过conf:spark.conf.Set(“spark.databricks.service.token”)设置
-通过环境变量设置:导出DATABRICKS\u API\u令牌=

然后我运行spark.conf.get(“spark.databricks.service.token”),并返回我创建的令牌。我们尝试在windows计算机上使用此令牌,但效果良好。

运行
databricks connect configure

按照命令提示符上的步骤操作,系统将要求您输入您的
Databricks令牌
,输入您的令牌,然后按照其余步骤操作,应该解决该问题

PS-当要求您输入您的
Databricks主机时:
为区域提供一个通用主机名,后跟您的组织id


你有没有尝试过创建一个新的令牌并使用它?是的,我当然有。你通常是如何将令牌提供给spark的?通过conf文件、environment vairable或spark.conf.set?我通过conda使用dbconnect。有一个databricks connect configure命令,其中配置了主机名、群集名、令牌等。我相信您一直在关注
databricks connect test
返回的内容?