Java Hadoop中的不合理错误

Java Hadoop中的不合理错误,java,hadoop,mapreduce,Java,Hadoop,Mapreduce,我正在使用 System.loadLibrary("native1"); 其中libnative1.so依赖于其他.so。我已将每个这样的.so添加到分布式缓存中。有趣的是,如果我不添加任何一个.so,它会抛出相应的异常,即这个特殊的.so没有找到。这意味着,所有依赖项都存在于映射器中。 那么,为什么我在加载native1.so时会出现这种奇怪且不合理的错误呢 IOException: Task process exit with nonzero status of 134 hadoop 我

我正在使用

System.loadLibrary("native1");
其中libnative1.so依赖于其他.so。我已将每个这样的.so添加到分布式缓存中。有趣的是,如果我不添加任何一个.so,它会抛出相应的异常,即这个特殊的.so没有找到。这意味着,所有依赖项都存在于映射器中。 那么,为什么我在加载native1.so时会出现这种奇怪且不合理的错误呢

IOException: Task process exit with nonzero status of 134 hadoop
我找不到任何解决办法。。因此,任何帮助都是非常好的


提前感谢

任务日志中有哪些错误?用谷歌搜索你的错误会导致很多结果。我上面写的错误来自映射器本身。。我找不到此错误的有意义的解决方案..任务日志中有什么内容?代码134表示JVM崩溃。使用本机库的代码是否在hadoop之外工作?您是否尝试过增加任务内存量?没有,我正在使用JNI调用这些本机库;而且我似乎加载了太多超出任务上限的库。您知道必须增加哪个参数吗?