ApachePig使用MapReduceJava获取异常
我正在使用pig-0.15和hadoop 2.6。通过ApachePig使用MapReduceJava获取异常,java,mapreduce,apache-pig,Java,Mapreduce,Apache Pig,我正在使用pig-0.15和hadoop 2.6。通过mapreduce使用apache pig连接到HDFS时,我遇到以下异常: 线程“main”java.lang.RuntimeException中出现异常:未能创建数据存储 我用过pig-0.15 jar,hadoop普通版:2.6.0,adoop普通版:2.6.0,hadoop核心版:1.2.0 INFO executionengine.HExecutionEngine:在以下位置连接到hadoop文件系统:hdfs://localhos
mapreduce
使用apache pig连接到HDFS时,我遇到以下异常:
线程“main”java.lang.RuntimeException中出现异常:未能创建数据存储
我用过pig-0.15 jar,hadoop普通版:2.6.0,adoop普通版:2.6.0,hadoop核心版:1.2.0
INFO executionengine.HExecutionEngine:在以下位置连接到hadoop文件系统:hdfs://localhost:9000
线程“main”java.lang.RuntimeException中出现异常:无法创建数据存储
位于org.apache.pig.backend.hadoop.datastorage.HDataStorage.init(HDataStorage.java:75)
位于org.apache.pig.backend.hadoop.datastorage.HDataStorage.(HDataStorage.java:58)
位于org.apache.pig.backend.hadoop.executionengine.HExecutionEngine.init(HExecutionEngine.java:241)
位于org.apache.pig.backend.hadoop.executionengine.HExecutionEngine.init(HExecutionEngine.java:111)
位于org.apache.pig.impl.PigContext.connect(PigContext.java:311)
位于org.apache.pig.PigServer(PigServer.java:226)
位于org.apache.pig.PigServer(PigServer.java:214)
位于org.apache.pig.PigServer(PigServer.java:206)
在org.apache.pig.PigServer.(PigServer.java:202)
可以粘贴完整的堆栈跟踪吗?hdfs://localhost:9000:/pigdata/a.txt
在我看来很可疑。通常默认端口是8020,然后在端口后面有一个:
太多。尝试将其更改为hdfs://localhost:8020/pigdata/a.txt
谢谢您的回复。我在控制台中使用的是java It。但使用java It时出现了此异常。我检查了您发送的内容。但仍然显示了相同的异常。您可以粘贴完整的stacktrace吗?hdfs://localhost:9000:/pigdata/a.txt
在我看来很可疑。通常默认端口是8020,然后在端口后面有一个:
太多。尝试将其更改为hdfs://localhost:8020/pigdata/a.txt
谢谢您的回复。我在控制台中使用了。但使用java It时出现了此异常。我检查了您发送的内容。但仍然显示了相同的异常。
public static void main(String[] args) throws ExecException, IOException {
PigContext s=new PigContext();
PigServer pigServer = new PigServer("mapreduce");
System.out.println(pigServer);
pigServer.registerQuery("A = load 'hdfs://localhost:9000/pigdata/a.txt' using PigStorage(',')");
pigServer.registerQuery("B = foreach A generate $0;");
pigServer.store("B", "hdfs:/pigdata/ip.txt");
}