Memory Hadoop-我可以将任务内存限制设置为低于2GB吗

Memory Hadoop-我可以将任务内存限制设置为低于2GB吗,memory,hadoop,Memory,Hadoop,作为标题。 有人知道如何限制hadoop的内存吗。 我想让hadoop机器以更低的内存来解决这个任务。 因为我想知道如果hadoop机器内存不足,hadoop机器会发生什么情况。您可以通过在hadoop-env.sh中设置hadoop_NameNode_OPTS以包含内存大小的JVM选项来更改分配给NameNode的内存。例如,对于Sun JVM,-Xmx2000m将指示2GB内存将分配给NameNode。请注意,NameNode的1G内存通常足以容纳数百万个文件 是否要限制子JVM的内存(即:

作为标题。 有人知道如何限制hadoop的内存吗。 我想让hadoop机器以更低的内存来解决这个任务。
因为我想知道如果hadoop机器内存不足,hadoop机器会发生什么情况。

您可以通过在hadoop-env.sh中设置hadoop_NameNode_OPTS以包含内存大小的JVM选项来更改分配给NameNode的内存。例如,对于Sun JVM,-Xmx2000m将指示2GB内存将分配给NameNode。请注意,NameNode的1G内存通常足以容纳数百万个文件

是否要限制子JVM的内存(即:映射/减少TaskTracker上运行的任务)?