Java 类路径问题-getJNIEnv失败

Java 类路径问题-getJNIEnv失败,java,c++,hadoop,java-native-interface,g++,Java,C++,Hadoop,Java Native Interface,G++,我已经在Hadoop Sandbox/CentOS上成功编译了基于JNI的Apache(C++)-没有编译错误或警告: g++ test.cpp -o test -I/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.151.x86_64/include/ -I/usr/hdp/2.6.3.0-235/usr/include/ -I/usr/hdp/2.6.3.0-235/hadoop/bin -I/usr/lib/jvm/java-1.8.0-openjdk-1.8

我已经在Hadoop Sandbox/CentOS上成功编译了基于JNI的Apache(C++)-没有编译错误或警告:

g++ test.cpp -o test -I/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.151.x86_64/include/ 
-I/usr/hdp/2.6.3.0-235/usr/include/ -I/usr/hdp/2.6.3.0-235/hadoop/bin 
-I/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.151-1.b12.el6_9.x86_64/include/ 
-I/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.151-1.b12.el6_9.x86_64/jre/lib/amd64/ 
-L/usr/hdp/2.6.3.0-235/hadoop/lib/ -L/usr/hdp/2.6.3.0-235/hadoop/lib/native 
-L/usr/hdp/2.6.3.0-235/hadoop/lib/ -L/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.151-1.b12.el6_9.x86_64/jre/lib/amd64/ 
-L/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.151-1.b12.el6_9.x86_64/jre/lib/amd64/server/ 
-lhdfs -pthread -ljvm
尝试运行代码后,出现以下错误:

[root@sandbox-hdp ~]# ./test
Environment variable CLASSPATH not set!
getJNIEnv: getGlobalJNIEnv failed
Environment variable CLASSPATH not set!
getJNIEnv: getGlobalJNIEnv failed
如果在终端中运行
hadoop类路径
,则会得到以下输出:

[root@sandbox-hdp ~]# hadoop classpath 
/usr/hdp/2.6.3.0-235/hadoop/conf:/usr/hdp/2.6.3.0-
235/hadoop/lib/:/usr/hdp/2.6.3.0-235/hadoop/.//:/usr/hdp/2.6.3.0-235/hadoop-
hdfs/./:/usr/hdp/2.6.3.0-235/hadoop-hdfs/lib/:/usr/hdp/2.6.3.0-235/hadoop-
hdfs/.//:/usr/hdp/2.6.3.0-235/hadoop-yarn/lib/:/usr/hdp/2.6.3.0-235/hadoop-
yarn/.//:/usr/hdp/2.6.3.0-235/hadoop-mapreduce/lib/:/usr/hdp/2.6.3.0-
235/hadoop-mapreduce/.//::jdbc-mysql.jar:mysql-connector-java-
5.1.17.jar:mysql-connector-java-5.1.37.jar:mysql-connector-
java.jar:/usr/hdp/2.6.3.0-235/tez/:/usr/hdp/2.6.3.0-
235/tez/lib/:/usr/hdp/2.6.3.0-235/tez/conf
上面写着:

最常见的问题是当 调用使用libhdfs的程序。确保将其设置为“所有” Hadoop JAR需要运行Hadoop本身以及正确的 包含hdfs-site.xml的配置目录。这是无效的 使用通配符语法指定多个JAR。这可能有助于 运行hadoop类路径--glob或hadoop类路径--jar生成 为您的部署更正类路径。请参见Hadoop命令参考 有关此命令的详细信息,请参见

然而,我不知道如何继续经过多次尝试和错误的尝试,因此,我将感谢任何帮助,可以帮助我解决这个问题

编辑:尝试了以下操作:CLASSPATH=
hadoop CLASSPATH
/test

…这给了我以下错误:libjvm.so:无法打开共享对象文件:没有这样的文件或目录

我尝试了以下操作:
export LD_LIBRARY_PATH=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.151-1.b12.el6_9.x86_64/jre/lib/amd64/server

…现在错误是:

[root@sandbox-hdp ~]# CLASSPATH=$CLASSPATH:`hadoop classpath` ./test
loadFileSystems error:
(unable to get stack trace for java.lang.NoClassDefFoundError exception: ExceptionUtils::getStackTrace error.)
hdfsBuilderConnect(forceNewInstance=0, nn=default, port=0, kerbTicketCachePath=(NULL), userName=(NULL)) error:
(unable to get stack trace for java.lang.NoClassDefFoundError exception: ExceptionUtils::getStackTrace error.)
hdfsOpenFile(/tmp/testfile.txt): constructNewObjectOfPath error:
(unable to get stack trace for java.lang.NoClassDefFoundError exception: ExceptionUtils::getStackTrace error.)

也许以下几点对你有用:

CLASSPATH=$CLASSPATH:`hadoop classpath` ./test
或者仅此:

CLASSPATH=`hadoop classpath` ./test
查看
JAVA\u HOME
环境变量,也许它也可以改变所使用的JAVA库

最后,下面的脚本这样的包装器可能很有用:

#!/bin/bash
export CLASSPATH="AllTheJARs"
ARG0="$0"
EXEC_PATH="$( dirname "$ARG0" )"
"${EXEC_PATH}/test" $@

我试过了。请看我帖子上的编辑。顺便说一句,谢谢你的帮助。也许你需要在类路径中添加额外的路径!类路径是空的吗?我的意思是,当您进入沙箱时,执行
echo$CLASSPATH
。如果类路径为空,则将您正在使用的JDK的JAR的位置附加到沙箱中,附加到由
hadoop classpath
命令提供的路径和JAR中。执行
echo$classpath
,得到空输出。你能不能更具体一点,如何附加罐子的位置?我解决了。我执行了hadoop类路径--glob,它输出了许多JAR(许多行)。然后我从所有这些jar中创建了一个类路径:export CLASSPATH=“AllTheJARs”,然后运行./test,它完成了它应该做的事情。我不知道这是否是一个好的解决方案-感谢您的反馈。我的建议是创建一个脚本作为包装器,以启动您的“测试”文件或您最终构建的任何其他产品,这样您就不必重复操作了。我已经用包装器的代码片段更新了原始答案。注意:上面的代码片段尚未测试。