在Bigtable上启动MapReduce作业时堆栈跟踪:ExitCodeException exitCode=1

在Bigtable上启动MapReduce作业时堆栈跟踪:ExitCodeException exitCode=1,mapreduce,hbase,google-cloud-bigtable,Mapreduce,Hbase,Google Cloud Bigtable,我们正在使用Google Cloud Bigtable来处理我们的大数据。 当我运行MapReduce作业时,我组装了一个jar并运行它,现在我遇到了以下错误: 由于AM,应用程序_1451577928704_0050失败2次 用于appattempt_1451577928704_0050_000002的集装箱与 exitCode:1有关更详细的输出,请检查应用程序跟踪 第页:http://censored:8088/cluster/app/application_1451577928704_0

我们正在使用Google Cloud Bigtable来处理我们的大数据。 当我运行MapReduce作业时,我组装了一个jar并运行它,现在我遇到了以下错误:

由于AM,应用程序_1451577928704_0050失败2次 用于appattempt_1451577928704_0050_000002的集装箱与 exitCode:1有关更详细的输出,请检查应用程序跟踪 第页:http://censored:8088/cluster/app/application_1451577928704_0050Then, 单击指向每次尝试日志的链接。诊断:来自的异常 集装箱下水。容器id: 容器_e02_1451577928704_0050_02_000001出口代码:1堆栈跟踪: ExitCodeException exitCode=1:at org.apache.hadoop.util.Shell.runCommand(Shell.java:545)位于 org.apache.hadoop.util.Shell.run(Shell.java:456)位于 org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:722) 在 org.apache.hadoop.warn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:211) 在 org.apache.hadoop.warn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302) 在 org.apache.hadoop.warn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82) 在java.util.concurrent.FutureTask.run(FutureTask.java:266)处 java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) 在 java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) 在java.lang.Thread.run(Thread.java:745)处,容器退出时 此尝试失败的非零退出代码1。应用程序失败

当我登录以查看workers节点的日志时,我看到了以下错误:

2016-02-15 02:59:54106信息[主要] org.apache.hadoop.mapreduce.v2.app.MRAppMaster:已创建MRAppMaster 申请许可证编号:1451577928704-0050-000001 2016-02-15 02:59:54294警告[main]org.apache.hadoop.util.NativeCodeLoader: 无法为您的平台加载本机hadoop库。。。使用 适用的内置java类2016-02-15 02:59:54319信息 [main]org.apache.hadoop.mapreduce.v2.app.MRAppMaster:使用 代币:2016-02-15 02:59:54319信息[主] org.apache.hadoop.mapreduce.v2.app.MRAppMaster:Kind: Thread_AM_rmu_令牌,服务:,标识:(appAttemptId{application_id{ id:50群集\u时间戳:1451577928704}尝试id:1}密钥id: -******)2016-02-15 02:59:54424 INFO[main]org.apache.hadoop.mapreduce.v2.app.MRAppMaster:使用mapred 纽阿皮克米特。2016-02-15 02:59:54755警告[主要] org.apache.hadoop.hdfs.shortcircuit.DomainSocketFactory: 无法使用短路本地读取功能,因为libhadoop 无法加载。2016-02-15 02:59:54855信息[主要] org.apache.hadoop.mapreduce.v2.app.MRAppMaster:OutputCommitter设置为 配置空2016-02-15 02:59:54911信息[主] org.apache.hadoop.service.AbstractService:service org.apache.hadoop.mapreduce.v2.app.MRAppMaster在初始化状态下失败; 原因:org.apache.hadoop.warn.exceptions.YarnRuntimeException: java.lang.ClassCastException: 无法将org.apache.xerces.dom.DeferredElementNSImpl强制转换为 org.w3c.dom.Text org.apache.hadoop.warn.exceptions.YarnRuntimeException: java.lang.ClassCastException: 无法将org.apache.xerces.dom.DeferredElementNSImpl强制转换为 org.w3c.dom.Text位于 org.apache.hadoop.mapreduce.v2.app.MRAppMaster$1.call(MRAppMaster.java:478) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster$1.call(MRAppMaster.java:458) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster.callWithJobClassLoader(MRAppMaster.java:1560) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster.createOutputCommitter(MRAppMaster.java:458) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster.serviceInit(MRAppMaster.java:377) 在 org.apache.hadoop.service.AbstractService.init(AbstractService.java:163) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster$4.run(MRAppMaster.java:1518) 位于java.security.AccessController.doPrivileged(本机方法) javax.security.auth.Subject.doAs(Subject.java:422)位于 org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster.initAndStartAppMaster(MRAppMaster.java:1515) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster.main(MRAppMaster.java:1448) 原因:java.lang.ClassCastException: 无法将org.apache.xerces.dom.DeferredElementNSImpl强制转换为 org.w3c.dom.Text位于 org.apache.hadoop.conf.Configuration.loadResource(Configuration.java:2603) 在 org.apache.hadoop.conf.Configuration.loadResources(Configuration.java:2502) 在 org.apache.hadoop.conf.Configuration.getProps(Configuration.java:2405) 位于org.apache.hadoop.conf.Configuration.get(Configuration.java:981) 在 org.apache.hadoop.conf.Configuration.getTrimmed(Configuration.java:1031) 在 org.apache.hadoop.conf.Configuration.getBoolean(Configuration.java:1432) 在 org.apache.hadoop.hbase.HBaseConfiguration.checkDefaultsVersion(HBaseConfiguration.java:67) 在 org.apache.hadoop.hbase.HBaseConfiguration.addHbaseResources(HBaseConfiguration.java:81) 在 org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:96) 在 org.apache.hadoop.hbase.HBaseConfiguration.create(HBaseConfiguration.java:105) 在 org.apache.hadoop.hbase.mapreduce.TableOutputFormat.setConf(TableOutputFormat.java:184) 在 org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:76) 在 org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:136) 在 org.apache.hadoop.mapreduce.v2.app.MRAppMaster$1.call(MRAppMaster.java:474) ... 还有11个


我试过一个旧罐子,它运行得很好,我不知道为什么新罐子不能工作——没有改变任何东西

请告知

谢谢

更新1:以下是一些详细信息: 我使用
<property>
    <name>hbase.client.connection.impl</name>
    <value>com.google.cloud.bigtable.hbase1_1.BigtableConnection</value>
</property>