Hadoop在一台机器上有多个数据节点

Hadoop在一台机器上有多个数据节点,hadoop,Hadoop,我感兴趣的是在一台Linux机器上配置多个数据节点(比如2个) 我做了一些研究,并遵循一个教程,但没有工作 如果有人能给我一个工作教程或告诉我如何做 谢谢您可以在同一个节点中运行多个datanode实例,而不是创建单独的VM。唯一的问题是您必须为每个datanode实例维护不同的配置 需要为每个datanode守护进程指定不同的端口 替代中的以下参数: 还需要为每个datanode守护进程维护不同的数据目录 覆盖以下参数 dfs.datanode.data.dir 每台计算机只能配置一个dat

我感兴趣的是在一台Linux机器上配置多个数据节点(比如2个)

我做了一些研究,并遵循一个教程,但没有工作

如果有人能给我一个工作教程或告诉我如何做


谢谢

您可以在同一个节点中运行多个datanode实例,而不是创建单独的VM。唯一的问题是您必须为每个datanode实例维护不同的配置

需要为每个datanode守护进程指定不同的端口 替代中的以下参数:

还需要为每个datanode守护进程维护不同的数据目录 覆盖以下参数

dfs.datanode.data.dir

每台计算机只能配置一个datanode。您可以在VM'sCan的帮助下配置多个数据节点。请提供更多详细信息,我应该在哪里覆盖这些参数?它们应该是XML表示的吗?谢谢,维护和指向两个不同的hdfs-sile.xml的详细信息在哪里?
dfs.datanode.data.dir