Hadoop Apache Pig的登录用户权限被拒绝错误

Hadoop Apache Pig的登录用户权限被拒绝错误,hadoop,apache-pig,Hadoop,Apache Pig,当我尝试运行pig-help时,出现以下错误 Exception in thread "main" java.io.IOException: Permission denied at java.io.UnixFileSystem.createFileExclusively(Native Method) at java.io.File.checkAndCreate(File.java:1717) at java.io.File.createTempFile0(File.ja

当我尝试运行pig-help时,出现以下错误

Exception in thread "main" java.io.IOException: Permission denied
    at java.io.UnixFileSystem.createFileExclusively(Native Method)
    at java.io.File.checkAndCreate(File.java:1717)
    at java.io.File.createTempFile0(File.java:1738)
    at java.io.File.createTempFile(File.java:1815)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:115)
这是我的配置- ApacheHadoop-1.0.3 ApachePig-0.10.0 操作系统-Ubuntu 64位

看到错误的用户-“sumod”这是一个管理员级别的帐户。我还在HDFS中为他创建了目录。 未看到此错误的用户-“hadoop”。我已经为hadoop作业创建了这个用户。他不是管理员用户。但他属于HDFS上的“超级组”。 为两个用户正确设置了路径。 我不必在运行“pig-help”命令时启动hadoop。我只想确保清管器安装正确。 我正在关注ApacheDoc,我的理解是我不必是hadoop用户就可以运行Pig,我可以是一个普通的系统用户


为什么我会犯这些错误?我做错了什么?

请检查放置pigscript的目录的权限

每当执行pigscript时,错误都会记录在日志文件中,日志文件会写入当前的工作目录中


假设您的pigscript在dir1中,pwd在dir2中,因为您是作为用户sumod执行的;sumod应该在dir2中具有写入权限。

我看到了相同的异常错误。对我来说,原因是我运行pig的用户没有对${hadoop.tmp.dir}的写权限