hadoop将本地文件复制到hadoop SF错误

hadoop将本地文件复制到hadoop SF错误,hadoop,hdfs,file-copying,Hadoop,Hdfs,File Copying,我想在Hadoop FS中复制一个本地文件。我运行以下命令: sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode 及 即使我运行:hdfs dfs-ls 我得到这个错误: > WARN util.NativeCodeL

我想在Hadoop FS中复制一个本地文件。我运行以下命令:

sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode

即使我运行:
hdfs dfs-ls

我得到这个错误:

> WARN util.NativeCodeLoader: Unable to load native-hadoop library for
> your platform... using builtin-java classes where applicable
> copyFromLocal: `.': No such file or directory

我不知道为什么会出现这个错误?有什么想法吗

根据您的输入,您的Hadoop安装似乎运行良好。问题是,
hadoop fs-copyFromLocal
期望目录HDFS目录作为目标目录,而不是hadoop存储其块的本地目录

因此,在您的情况下,命令应该如下所示(例如):


其中,
sampleDir
是您使用
hadoop fs-mkdir
命令创建的目录。

1)尝试执行
hadoop版本
命令。。。发布输出。2) 修复来自
hdfs dfs-ls
命令的输出,由于您在问题中提供的输出与
-ls
命令无关…@Serhiy和
hdfs-ls
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$hdfs dfs-ls 17/01/26 15:59:09警告util.NativeCodeLoader:无法加载本机hadoop库对于你的平台。。。在适用的地方使用内置java类ls:
:没有这样的文件或目录`Execute
hadoop fs-ls/
,并检查是否没有错误。@Serhiy当我运行
hadoop version
时,我得到:
sara@ubuntu:~$hadoop版本hadoop 2.3.0 Subversionhttp://svn.apache.org/repos/asf/hadoop/common -r 1567123由jenkins在2014-02-11T13:40Z上编译,使用protoc 2.5.0从源代码处编译,带有校验和DFE4633FBC6A044BC124392EC06B85。此命令是使用/usr/lib/hadoop/hadoop-2.3.0/share/hadoop/common/hadoop-common-2.3.0.jar运行的。
@Serhiy运行hadoop fs时,我收到相同的错误-ls/Exact它可以正常工作。我还运行:
hdfs dfs-copyFromLocal/home/sara/Downloads/CA-GrQc.txt/in
,这样所有用户都可以访问该文件。谢谢你的帮助。
> WARN util.NativeCodeLoader: Unable to load native-hadoop library for
> your platform... using builtin-java classes where applicable
> copyFromLocal: `.': No such file or directory
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /sampleDir/