Windows上的Hadoop错误:java.lang.UnsatifiedLinkError

Windows上的Hadoop错误:java.lang.UnsatifiedLinkError,hadoop,Hadoop,我是Hadoop新手,正在尝试执行wordcount的第一个mapreduce作业。 但是,每当我尝试这样做时,我都会得到以下错误: java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeCompute ChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V at org.apache.hadoop.util.NativeCrc32.nat

我是Hadoop新手,正在尝试执行wordcount的第一个mapreduce作业。 但是,每当我尝试这样做时,我都会得到以下错误:

java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeCompute
ChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V
        at org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(
Native Method)
        at org.apache.hadoop.util.NativeCrc32.calculateChunkedSumsByteArray(Nati
veCrc32.java:86)
        at org.apache.hadoop.util.DataChecksum.calculateChunkedSums(DataChecksum
.java:430)
        at org.apache.hadoop.fs.FSOutputSummer.writeChecksumChunks(FSOutputSumme
r.java:202)
        at org.apache.hadoop.fs.FSOutputSummer.flushBuffer(FSOutputSummer.java:1
63)
        at org.apache.hadoop.fs.FSOutputSummer.flushBuffer(FSOutputSummer.java:1
44)
        at org.apache.hadoop.hdfs.DFSOutputStream.close(DFSOutputStream.java:221
7)
        at org.apache.hadoop.fs.FSDataOutputStream$PositionCache.close(FSDataOut
putStream.java:72)
        at org.apache.hadoop.fs.FSDataOutputStream.close(FSDataOutputStream.java
:106)
        at org.apache.hadoop.io.IOUtils.cleanup(IOUtils.java:237)
        at org.apache.hadoop.io.IOUtils.closeStream(IOUtils.java:254)
        at org.apache.hadoop.io.IOUtils.copyBytes(IOUtils.java:61)
        at org.apache.hadoop.io.IOUtils.copyBytes(IOUtils.java:112)
        at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:366)
        at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:338)
        at org.apache.hadoop.fs.FileSystem.copyFromLocalFile(FileSystem.java:190
5)
        at org.apache.hadoop.fs.FileSystem.copyFromLocalFile(FileSystem.java:187
3)
        at org.apache.hadoop.fs.FileSystem.copyFromLocalFile(FileSystem.java:183
8)
        at org.apache.hadoop.mapreduce.JobResourceUploader.copyJar(JobResourceUp
loader.java:246)
        at org.apache.hadoop.mapreduce.JobResourceUploader.uploadFiles(JobResour
ceUploader.java:166)
        at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSub
mitter.java:98)
        at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitt
er.java:191)
        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1297)
        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1294)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:415)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInforma
tion.java:1656)
        at org.apache.hadoop.mapreduce.Job.submit(Job.java:1294)
        at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1315)
        at org.apache.hadoop.examples.WordCount.main(WordCount.java:87)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.
java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(Progra
mDriver.java:71)
        at org.apache.hadoop.util.ProgramDriver.run(ProgramDriver.java:144)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:74)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.
java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
还有,当我

hadoop checknative-a

它向我显示了以下详细信息:

Native library checking:
hadoop:  true C:\hadoop-2.6.1\bin\hadoop.dll
zlib:    false
snappy:  false
lz4:     true revision:43
bzip2:   false
openssl: false org.apache.hadoop.util.NativeCodeLoader.buildSupportsOpenssl()Z
winutils: true C:\hadoop-2.6.1\bin\winutils.exe
15/10/19 15:18:24 INFO util.ExitUtil: Exiting with status 1

有什么方法可以解决此问题吗?

在出现此错误时,请检查java进程是否使用了相同的C:\hadoop-2.6.1\bin\hadoop.dll文件。
使用process explorer查找。

我也遇到了同样的问题。从
system32
目录中删除
hadoop.dll
并设置
hadoop\u HOME
环境变量后,它工作了


或者,可以使用添加jvm参数,如
-Djava.library.path=/lib/native

我也有此错误,我解决了此错误:

  • 您可以访问链接
  • 使用您使用的版本下载文件“winutils.exe”和“hadoop.dll”
  • 将2文件复制到HADOOP\u HOME\bin
  • 对我来说没关系。
    注意:如果2个文件“winutils.exe”和“hadoop.dll”与您使用的hadoop版本不匹配,则不正常

    请检查您的java版本。如果java是32位版本,则需要卸载并重新安装64位版本的hadoop

    检查命令:

    java-d32-version

    java-d64-version;(如果是64版本,则无错误)

    我正在使用Spark2.4.6
    我从网站下载了hadoop-2.9.0
    然后在我的代码执行过程中,我还将输出写入一个外部文件,
    我使用了-Djava.library.path=/lib/native 作为VM参数。

    就是这样&它对我有用。

    请检查此链接是否对您有帮助:也对我有用!Thanks@Duc如何检查hadoop.dll和winutils.exe是否正确compatible@DucIam使用Hadoop-3.0.0。尽管将这些文件复制到HADOOP-HOME/bin,但对我没有帮助。你能帮我吗help@NeeleshkumarS请你help@JonAndrews,我确实使用了Hadoop 2.8而不是Hadoop 3,Hadoop\u HOME\bin\中的Hadoop.dll和winutils.exe对我的情况没有帮助。然而,添加jvm参数确实有帮助。Thanks@Jaigates我是Hadoop的新手。你能告诉我该把这个命令粘贴到哪里吗-Djava.library.path=/lib/native