Hadoop hdfs,java客户端无法连接到hdfs
我正在尝试将java客户端连接到hadoop HDFS, 但当我试图从配置中获取fs时,我被卡住了Hadoop hdfs,java客户端无法连接到hdfs,java,hadoop,hdfs,Java,Hadoop,Hdfs,我正在尝试将java客户端连接到hadoop HDFS, 但当我试图从配置中获取fs时,我被卡住了 Configuration conf = new Configuration(); conf.set("fs.default.name", _PATH_); conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem"); FileSystem f = FileSystem.get( conf ); 然后我得到这个
Configuration conf = new Configuration();
conf.set("fs.default.name", _PATH_);
conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
FileSystem f = FileSystem.get( conf );
然后我得到这个经验
java.lang.RuntimeException: class org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback not org.apache.hadoop.security.GroupMappingServiceProvider
我在谷歌上搜索了一下,但没有找到。
有什么建议吗
PS:我使用hadoop common包,hadoop hdfs来自2.0.0-cdh4.2.0
谢谢
Anthony。请尝试以下代码:
Path coreSitePath = new Path("/path/of/HADOOP_HOME", "conf/core-site.xml");
conf.addResource(coreSitePath);
FileSystem fs = FileSystem.get(conf)
请尝试以下代码:
Path coreSitePath = new Path("/path/of/HADOOP_HOME", "conf/core-site.xml");
conf.addResource(coreSitePath);
FileSystem fs = FileSystem.get(conf)
谢谢你的回答,但是我的hadoop_主页在服务器上,我尝试在我的计算机上运行我的客户端。我尝试了你的解决方案(我将核心站点从服务器复制到了我的计算机),但我仍然得到相同的异常JNIBASEDUNIXGroupsMappingWithFallback我以与你相同的方式尝试,它对我有效配置conf=new Configuration();conf.set(“fs.default.name”hdfs://hostname:9000/"); FileSystem fs=FileSystem.get(conf);请检查您使用的JAR版本是否存在问题你好,我可以问您两个问题吗?您使用哪个版本的hadoop HDFS?您在哪里下载HDFS客户机java jar包?我找不到适用于2.7.1 hadoop HDFS的有效hadoop HDFS客户端jar包。感谢您的回答,但我的hadoop_主页位于服务器上,我尝试在我的计算机上运行我的客户端。我尝试了您的解决方案(我将核心站点从服务器复制到了我的计算机)我仍然得到相同的异常jnibasedunixgroupsmappingwithfallback我以与您相同的方式尝试了它,它对我有效配置conf=new Configuration();conf.set(“fs.default.name”hdfs://hostname:9000/"); FileSystem fs=FileSystem.get(conf);请检查您使用的JAR版本是否存在问题你好,我可以问您两个问题吗?您使用哪个版本的hadoop HDFS?您在哪里下载HDFS客户机java jar包?我找不到适用于2.7.1 hadoop HDFS的有效hadoop HDFS客户端jar包。