Hadoop 无法从Spark shell在配置单元中创建新表

Hadoop 无法从Spark shell在配置单元中创建新表,hadoop,apache-spark,hive,derby,Hadoop,Apache Spark,Hive,Derby,我在Redhat中使用单节点设置,并安装了Hadoop Hive Pig和Spark。我在Derby中配置了配置单元元数据。我为配置单元表创建了新文件夹,并授予了完全权限(chmod 777)。然后,我从Hive CLI创建了一个表,可以在Spark shell中选择这些数据并将这些值打印到控制台。但是从sparkshell/sparksql中,我无法创建新的表。它会抛出错误 FAILED: Execution Error, return code 1 from org.apache.hadoo

我在Redhat中使用单节点设置,并安装了Hadoop Hive Pig和Spark。我在Derby中配置了配置单元元数据。我为配置单元表创建了新文件夹,并授予了完全权限(chmod 777)。然后,我从Hive CLI创建了一个表,可以在Spark shell中选择这些数据并将这些值打印到控制台。但是从sparkshell/sparksql中,我无法创建新的表。它会抛出错误

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:file:/2016/hive/test2 is not a directory or unable to create one)
我检查了权限和用户(使用相同的用户进行安装以及Hive和Hadoop Spark等)。 要实现Spark和Hive的完全集成,需要做些什么吗


谢谢

检查hdfs中的权限是否正确(不仅仅是文件系统)


如果之后错误消息仍然存在,请更新问题。

您从spark shell运行了什么命令?spark SQL创建表测试(Id int)spark shell使用SqlContext执行相同查询
hadoop fs -chmod -R 755 /user