Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
org.apache.hadoop.security.AccessControlException:权限被拒绝:user=test user,access=EXECUTE,inode=“system”:hadoop:test user:rwx------_Hadoop - Fatal编程技术网

org.apache.hadoop.security.AccessControlException:权限被拒绝:user=test user,access=EXECUTE,inode=“system”:hadoop:test user:rwx------

org.apache.hadoop.security.AccessControlException:权限被拒绝:user=test user,access=EXECUTE,inode=“system”:hadoop:test user:rwx------,hadoop,Hadoop,以前,测试用户通常驻留在失去连接的边缘服务器上。因此,我们重建了边缘服务器,并一直试图使其启动和运行,但我一直得到以下错误 Job initialization failed: org.apache.hadoop.security.AccessControlException: org.apache.hadoop.security.AccessControlException: Permission denied: user=test-user, access=EXECUTE, inode="

以前,测试用户通常驻留在失去连接的边缘服务器上。因此,我们重建了边缘服务器,并一直试图使其启动和运行,但我一直得到以下错误

Job initialization failed: 
org.apache.hadoop.security.AccessControlException:
org.apache.hadoop.security.AccessControlException: Permission denied:
user=test-user, access=EXECUTE,
inode="system":hadoop:test-user:rwx------ at
sun.reflect.GeneratedConstructorAccessor20.newInstance(Unknown Source)
at
sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:526) at
org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:95)
at
org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:57)
at
org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.<init>(DFSClient.java:3371)
at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:743) at
org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:182)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:557) at
org.apache.hadoop.fs.FileSystem.create(FileSystem.java:538) at
org.apache.hadoop.fs.FileSystem.create(FileSystem.java:445) at
org.apache.hadoop.fs.FileSystem.create(FileSystem.java:437) at
org.apache.hadoop.security.Credentials.writeTokenStorageFile(Credentials.java:169)
at
org.apache.hadoop.mapred.JobInProgress.generateAndStoreTokens(JobInProgress.java:3802)
at
org.apache.hadoop.mapred.JobInProgress.initTasks(JobInProgress.java:970)
at org.apache.hadoop.mapred.JobTracker.initJob(JobTracker.java:4237)
at
org.apache.hadoop.mapred.FairScheduler$JobInitializer$InitJob.run(FairScheduler.java:301)
at
java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at
java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:724) Caused by:
org.apache.hadoop.ipc.RemoteException:
org.apache.hadoop.security.AccessControlException: Permission denied:
user=report_generator, access=EXECUTE,
inode="system":hadoop:report_generator:rwx------ at
org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:199)
at
org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:155)
hadoop:testuser:rwx---权限意味着只有hadoop用户可以访问这些文件。消息中的测试用户是组,而不是用户。并且任何组都无法访问指定的路径

如果测试用户不在其自己的组中,则需要更改路径,否则,可以使用chmod 770

不同帐户的结尾处出现类似错误

hadoop:报告生成器:rwx---

这些用户和组首先需要存在于namenode上,其次是edge节点

hadoop:testuser:rwx---权限意味着只有hadoop用户才能访问这些文件。消息中的测试用户是组,而不是用户。并且任何组都无法访问指定的路径

如果测试用户不在其自己的组中,则需要更改路径,否则,可以使用chmod 770

不同帐户的结尾处出现类似错误

hadoop:报告生成器:rwx---


这些用户和组首先需要存在于namenode上,其次是edge节点

@Bd正如这里所解释的,您的用户分析没有正确的权限以管理员或管理员的身份访问supergroup@Bd我不知道你的代码是做什么的。但我确实认为/tmp下的任何内容都应该是全局可读写的,因此可以使用hadoop fs-chmod-R 777/tmp作为管理用户来修复it@Bd如本文所述,您的用户分析没有以管理员或管理员身份访问的正确权限supergroup@Bd我不知道你的代码是做什么的。但我确实认为/tmp下的任何内容都应该是全局可读写的,因此您可以使用hadoop fs-chmod-R 777/tmp作为管理用户来修复它