Hadoop 将目录从远程HDFS本地文件系统复制到本地计算机
我在本地hdfs环境中有一个目录,我想将其复制到本地计算机。我正在使用ssh(使用密码)访问hdfs 我尝试了许多建议的复制命令,但都不起作用 我尝试的是:Hadoop 将目录从远程HDFS本地文件系统复制到本地计算机,hadoop,hdfs,scp,Hadoop,Hdfs,Scp,我在本地hdfs环境中有一个目录,我想将其复制到本地计算机。我正在使用ssh(使用密码)访问hdfs 我尝试了许多建议的复制命令,但都不起作用 我尝试的是: scp ‘username@hn0-sc-had:Downloads/*’ ~/Downloads 如本文所述。 我做错了什么 SCP将从远程Linux服务器进行复制 HDFS不存在于单个服务器上,或者是“本地文件系统”,因此SCP不是直接从中复制的合适工具 你的选择包括 SSH到远程服务器 使用hdfs dfs-copyToLocal从
scp ‘username@hn0-sc-had:Downloads/*’ ~/Downloads
如本文所述。
我做错了什么 SCP将从远程Linux服务器进行复制 HDFS不存在于单个服务器上,或者是“本地文件系统”,因此SCP不是直接从中复制的合适工具 你的选择包括
hdfs dfs-copyToLocal
从hdfs中提取文件hdfs dfs-copytoLocal
您是否尝试过查看
hdfs dfs-copyToLocal
?您的本地计算机上有hdfs命令吗?此链接可能会有所帮助:不。我在本地macOS上没有hdfs命令。