Hadoop 将关系存储到pig中的本地文件不工作

Hadoop 将关系存储到pig中的本地文件不工作,hadoop,mapreduce,apache-pig,Hadoop,Mapreduce,Apache Pig,我是pig新手,正在使用存储在/etc/passwd中的passwd文件。我已经用以下代码在本地模式下启动了pig A = LOAD 'passwd' using PigStorage(':'); B = foreach A generate $0 as id; STORE B INTO 'output'; 给出作业未能生成结果的以下错误。最后一行如果写入转储B;生成输出。这里有什么问题。? 提前谢谢 Failed Jobs: JobId Alias Feature Message O

我是pig新手,正在使用存储在/etc/passwd中的passwd文件。我已经用以下代码在本地模式下启动了pig

A = LOAD 'passwd' using PigStorage(':');
B = foreach A generate $0 as id;
STORE B INTO 'output';
给出作业未能生成结果的以下错误。最后一行如果写入转储B;生成输出。这里有什么问题。? 提前谢谢

Failed Jobs:
JobId   Alias   Feature Message Outputs
job_local_0004  A,B MAP_ONLY    Message: Job failed! Error - NA file:///home/monish/Desktop/output.txt,

Input(s):
Failed to read data from "file:///home/monish/Desktop/passwd"

Output(s):
Failed to produce result in "file:///home/monish/Desktop/output.txt"

Job DAG:
job_local_0004


2013-02-07 11:13:40,578 [main] INFO      org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher - Failed!

看起来您正在从本地目录调用pigfile:///home/monish/Desktop,然后使用相对路径加载到文件中

尝试并完全限定文件路径:

A = LOAD '/etc/passwd' using PigStorage(':');

感谢u@chris的建议,但是当我将带有STORE B的最后一行编辑为“/tmp/output”时,程序运行良好。我不知道wat是否正确,但它与/tmp/output一起工作!!可能是权限问题吧?