使用单个hadoop客户端将文件上载到多个HDF
基本上,我可以通过键入以下命令上载文件: hadoop fs-put filename/path/to/dir 将写入当前配置的群集 如果我使用相同的客户端将文件上载到不同的群集,是否可能?使用以下命令: hadoop fs-put文件名hdfs://cluster2_namenode_ip/path/to/dir 还是其他选择使用单个hadoop客户端将文件上载到多个HDF,hadoop,hdfs,Hadoop,Hdfs,基本上,我可以通过键入以下命令上载文件: hadoop fs-put filename/path/to/dir 将写入当前配置的群集 如果我使用相同的客户端将文件上载到不同的群集,是否可能?使用以下命令: hadoop fs-put文件名hdfs://cluster2_namenode_ip/path/to/dir 还是其他选择 谢谢 是的,它有效。您必须确保您的hadoop客户端与另一个集群上的hadoop版本相同。您还应该与其他集群的工作节点保持连接 有一些特殊情况。如果您的集群配置了nam
谢谢 是的,它有效。您必须确保您的hadoop客户端与另一个集群上的hadoop版本相同。您还应该与其他集群的工作节点保持连接
有一些特殊情况。如果您的集群配置了namenodeha或kerberos,那么您将无法仅凭该命令逃脱惩罚;需要一些额外的配置。是的,它可以工作。您必须确保您的hadoop客户端与另一个集群上的hadoop版本相同。您还应该与其他集群的工作节点保持连接
有一些特殊情况。如果您的集群配置了namenodeha或kerberos,那么您将无法仅凭该命令逃脱惩罚;需要一些额外的配置。与@facha达成一致。另一个选择是hadoop的distcp工具你好,我可以问你两个问题吗?您使用哪个版本的hadoop HDFS?您在哪里下载HDFS客户机java jar包?我找不到适用于2.7.1 hadoop HDFS的有效hadoop HDFS客户端jar包。没有特殊的“客户端”包。您只需下载(或从源代码处编译)整个hadoop tar.gz,其中包括客户端库/二进制文件/脚本。同意@facha。另一个选择是hadoop的distcp工具你好,我可以问你两个问题吗?您使用哪个版本的hadoop HDFS?您在哪里下载HDFS客户机java jar包?我找不到适用于2.7.1 hadoop HDFS的有效hadoop HDFS客户端jar包。没有特殊的“客户端”包。您只需下载(或从源代码处编译)整个hadoop tar.gz,其中包括客户端库/二进制文件/脚本。