Apache spark “如何修复”;使用spark“创建配置单元orc表时权限被拒绝?”;?

Apache spark “如何修复”;使用spark“创建配置单元orc表时权限被拒绝?”;?,apache-spark,hadoop,hive,Apache Spark,Hadoop,Hive,首先,我创建了一个名为“ProDF”的数据框架。 然后我需要将proDf保存为“orc”格式表。我使用了以下代码: import org.apache.spark.sql.SaveMode proDF.write.mode(SaveMode.Overwrite).format("orc").saveAsTable("product_orc_table") 但是,Spark shell返回了一个故障: 消息:java.security.AccessControlException:权限被拒绝:

首先,我创建了一个名为“ProDF”的数据框架。 然后我需要将proDf保存为“orc”格式表。我使用了以下代码:

import org.apache.spark.sql.SaveMode
proDF.write.mode(SaveMode.Overwrite).format("orc").saveAsTable("product_orc_table")
但是,Spark shell返回了一个故障:

消息:java.security.AccessControlException:权限被拒绝: user=junyanxu,access=WRITE,inode=“/apps/hive/warehouse/product\u orc\u table”:uma\u kanagarajan:hdfs:drwxr-xr-x

我尝试使用以下代码更改
/apps/hive/warehouse/product\u orc\u table
的权限:

hadoop fs -chmod 777 /apps/hive/warehouse/product_orc_table
但这一准则遭到否认,并说:

user=junyanxu不是inode=product\u orc\u表的所有者


我希望能够成功创建orc表。

提到了/apps/hive的用户和组所有权

要开始并执行您的命令,请执行hadoop fs-chmod 777/apps/hive/warehouse/product\u orc\u table

在执行以下命令之前,您需要是hdfs用户

sudo su
su hdfs

请注意,这不是一个更好的做法,请务必在提到的链接中遵循配置单元所需的权限。

谢谢!rbyndoor,问题已经解决。在python脚本中如何解决这个问题?应该是sudo su。su hdfs可以在终端中运行吗?如果我只能在脚本中执行此操作,该怎么办?