Hadoop 如何访问Spark中不同项目中的google BigQuery表中的数据

Hadoop 如何访问Spark中不同项目中的google BigQuery表中的数据,hadoop,apache-spark,google-bigquery,google-cloud-platform,Hadoop,Apache Spark,Google Bigquery,Google Cloud Platform,我想从两个不同项目的两个GoogleBigQuery表中选择数据,并在spark中对其执行union所有操作。我收到错误Errorcom.google.api.client.googleapis.json.GoogleJsonResponseException:403禁止 我认为像buketId,ProjectId这样的BigQuery属性。。在配置级别设置。因此,当从多个项目访问数据时,会抛出错误 请建议是否有任何方法可以访问来自不同项目的多个BigQuery表中的数据。我不熟悉Spark+B

我想从两个不同项目的两个GoogleBigQuery表中选择数据,并在spark中对其执行union所有操作。我收到错误Errorcom.google.api.client.googleapis.json.GoogleJsonResponseException:403禁止

我认为像buketId,ProjectId这样的BigQuery属性。。在配置级别设置。因此,当从多个项目访问数据时,会抛出错误


请建议是否有任何方法可以访问来自不同项目的多个BigQuery表中的数据。

我不熟悉Spark+BigQuery,但您如何进行身份验证?使用服务帐户?是的,使用服务帐户。我也不熟悉spark,但为了确保正确共享数据集?见: