使用单个hadoop客户端将文件上载到多个HDF

使用单个hadoop客户端将文件上载到多个HDF,hadoop,hdfs,Hadoop,Hdfs,基本上,我可以通过键入以下命令上载文件: hadoop fs-put filename/path/to/dir 将写入当前配置的群集 如果我使用相同的客户端将文件上载到不同的群集,是否可能?使用以下命令: hadoop fs-put文件名hdfs://cluster2_namenode_ip/path/to/dir 还是其他选择 谢谢 是的,它有效。您必须确保您的hadoop客户端与另一个集群上的hadoop版本相同。您还应该与其他集群的工作节点保持连接 有一些特殊情况。如果您的集群配置了nam

基本上,我可以通过键入以下命令上载文件:

hadoop fs-put filename/path/to/dir

将写入当前配置的群集

如果我使用相同的客户端将文件上载到不同的群集,是否可能?使用以下命令:

hadoop fs-put文件名hdfs://cluster2_namenode_ip/path/to/dir

还是其他选择


谢谢

是的,它有效。您必须确保您的hadoop客户端与另一个集群上的hadoop版本相同。您还应该与其他集群的工作节点保持连接


有一些特殊情况。如果您的集群配置了namenodeha或kerberos,那么您将无法仅凭该命令逃脱惩罚;需要一些额外的配置。

是的,它可以工作。您必须确保您的hadoop客户端与另一个集群上的hadoop版本相同。您还应该与其他集群的工作节点保持连接


有一些特殊情况。如果您的集群配置了namenodeha或kerberos,那么您将无法仅凭该命令逃脱惩罚;需要一些额外的配置。

与@facha达成一致。另一个选择是hadoop的distcp工具你好,我可以问你两个问题吗?您使用哪个版本的hadoop HDFS?您在哪里下载HDFS客户机java jar包?我找不到适用于2.7.1 hadoop HDFS的有效hadoop HDFS客户端jar包。没有特殊的“客户端”包。您只需下载(或从源代码处编译)整个hadoop tar.gz,其中包括客户端库/二进制文件/脚本。同意@facha。另一个选择是hadoop的distcp工具你好,我可以问你两个问题吗?您使用哪个版本的hadoop HDFS?您在哪里下载HDFS客户机java jar包?我找不到适用于2.7.1 hadoop HDFS的有效hadoop HDFS客户端jar包。没有特殊的“客户端”包。您只需下载(或从源代码处编译)整个hadoop tar.gz,其中包括客户端库/二进制文件/脚本。