Hadoop中的Java堆空间错误

Hadoop中的Java堆空间错误,java,linux,hadoop,memory,Java,Linux,Hadoop,Memory,我已经将hadoop集群设置为单节点 OS:CentOS Linux 7.0.1406版 Hadoop:2.6.0 Java:1.7 我的问题是hadoop堆内存。我目前正在reducer设置步骤中成功读取50 MB的文件,但当文件大于约500 MB时,会出现内存不足错误。当我浏览http:/ip_地址:50070/dfshhealth.htmltab-overview时,它提供了以下信息 堆内存使用了471 MB堆内存中的282.52 MB。最大堆内存为8.89 GB 有关错误的详细说明: M

我已经将hadoop集群设置为单节点 OS:CentOS Linux 7.0.1406版 Hadoop:2.6.0 Java:1.7

我的问题是hadoop堆内存。我目前正在reducer设置步骤中成功读取50 MB的文件,但当文件大于约500 MB时,会出现内存不足错误。当我浏览http:/ip_地址:50070/dfshhealth.htmltab-overview时,它提供了以下信息

堆内存使用了471 MB堆内存中的282.52 MB。最大堆内存为8.89 GB

有关错误的详细说明:

Map-Reduce Framework
        Map input records=176
        Map output records=512299
        Map output bytes=26127249
        Map output materialized bytes=27151853
        Input split bytes=108
        Combine input records=0
        Spilled Records=512299
        Failed Shuffles=0
        Merged Map outputs=0
        GC time elapsed (ms)=87
        CPU time spent (ms)=4410
        Physical memory (bytes) snapshot=277155840
        Virtual memory (bytes) snapshot=903360512
        Total committed heap usage (bytes)=202375168
File Input Format Counters
        Bytes Read=846327

配置中缺少什么。有人能帮我吗???

你能增加你的堆数吗?Hadoop是为具有许多GB内存的系统而设计的,例如数十或数百。50MB需要多少内存?我建议您将其设置为10倍。是的,我已经将其增加到8.89GB,但即使加载500MB文件,也会给我带来错误。我会一直增加它,直到您没有收到错误。50 MB使用了多少内存?嗨,Peter,实际上问题可能是安装程序上的问题。以前我使用的是hadoop 1.2.1,堆空间为7.11GB。但在新的设置中,相同的map_reduce作业不起作用。为什么会这样很难知道,因为从过去两天开始,我几乎检查了hadoop的所有配置。如果你有任何关于它的想法,请让我知道..你可以在jvisualvm中观察这个过程,看看它使用了多少。