在HBase 0.98上从配置单元1.0.0执行联接查询

在HBase 0.98上从配置单元1.0.0执行联接查询,hbase,filenotfoundexception,Hbase,Filenotfoundexception,在HBase(0.98)表上使用配置单元1.0.0执行联接查询时,出现以下异常。 简单的SELECT查询工作正常。 此外,提到的jar文件也存在于所述位置 错误[main]:exec.Task(SessionState.java:printError(833))-作业提交失败,出现异常“java.io.FileNotFoundException”(文件不存在:hdfs://localhost:9000/home/user/hadoop-2.6.0/share/hadoop/mapreduce/h

在HBase(0.98)表上使用配置单元1.0.0执行联接查询时,出现以下异常。 简单的SELECT查询工作正常。 此外,提到的jar文件也存在于所述位置

错误[main]:exec.Task(SessionState.java:printError(833))-作业提交失败,出现异常“java.io.FileNotFoundException”(文件不存在:hdfs://localhost:9000/home/user/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-client-core-2.6.0.jar)' java.io.FileNotFoundException:文件不存在:hdfs://localhost:9000/home/user/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-client-core-2.6.0.jar 位于org.apache.hadoop.hdfs.DistributedFileSystem$18.doCall(DistributedFileSystem.java:1122) 位于org.apache.hadoop.hdfs.DistributedFileSystem$18.doCall(DistributedFileSystem.java:1114) 位于org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81) 位于org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1114) 位于org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:288) 位于org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:224) 位于org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestamps(ClientDistributedCacheManager.java:93) 位于org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestampsAndCacheVisibilities(ClientDistributedCacheManager.java:57) 位于org.apache.hadoop.mapreduce.jobsmitter.copyAndConfigureFiles(jobsmitter.java:269) 位于org.apache.hadoop.mapreduce.jobsmitter.copyAndConfigureFiles(jobsmitter.java:390) 位于org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:483) 位于org.apache.hadoop.mapreduce.Job$10.run(Job.java:1296) 位于org.apache.hadoop.mapreduce.Job$10.run(Job.java:1293) 位于java.security.AccessController.doPrivileged(本机方法) 位于javax.security.auth.Subject.doAs(Subject.java:415) 位于org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1628) 位于org.apache.hadoop.mapreduce.Job.submit(Job.java:1293) 位于org.apache.hadoop.mapred.JobClient$1.run(JobClient.java:562) 位于org.apache.hadoop.mapred.JobClient$1.run(JobClient.java:557) 位于java.security.AccessController.doPrivileged(本机方法) 位于javax.security.auth.Subject.doAs(Subject.java:415) 位于org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1628) 位于org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:557) 位于org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:548) 位于org.apache.hadoop.hive.ql.exec.mr.ExecDriver.execute(ExecDriver.java:429) 位于org.apache.hadoop.hive.ql.exec.mr.MapRedTask.execute(MapRedTask.java:137) 位于org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:160) 位于org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:85) 位于org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1604) 位于org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1364) 位于org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1177) 位于org.apache.hadoop.hive.ql.Driver.run(Driver.java:1004) 位于org.apache.hadoop.hive.ql.Driver.run(Driver.java:994) 位于org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:201) 位于org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:153) 位于org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:364) 位于org.apache.hadoop.hive.cli.CliDriver.executeDriver(CliDriver.java:712) 位于org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:631) 位于org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:570) 在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)处 在sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)中 在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)中 位于java.lang.reflect.Method.invoke(Method.java:606) 位于org.apache.hadoop.util.RunJar.run(RunJar.java:221) 位于org.apache.hadoop.util.RunJar.main(RunJar.java:136)


2015-04-24 12:24:37114错误[main]:ql.Driver(SessionState.java:printError(833))-失败:执行错误,返回代码1,来自org.apache.hadoop.hive.ql.exec.mr.MapRedTask

正在HDFS中搜索hadoop-mapreduce-client-core-2.6.0.jar

hdfs://localhost:9000/ 是hadoop hdfs地址。 您可以设置主路径将jar上传到hdfs中。

hdfs dfs-put[本地Jar路径]hdfs://localhost:9000/home/user/hadoop-2.6.0/share/hadoop/mapreduce/