Hadoop中的Java堆空间错误
我已经将hadoop集群设置为单节点 OS:CentOS Linux 7.0.1406版 Hadoop:2.6.0 Java:1.7 我的问题是hadoop堆内存。我目前正在reducer设置步骤中成功读取50 MB的文件,但当文件大于约500 MB时,会出现内存不足错误。当我浏览http:/ip_地址:50070/dfshhealth.htmltab-overview时,它提供了以下信息 堆内存使用了471 MB堆内存中的282.52 MB。最大堆内存为8.89 GB 有关错误的详细说明:Hadoop中的Java堆空间错误,java,linux,hadoop,memory,Java,Linux,Hadoop,Memory,我已经将hadoop集群设置为单节点 OS:CentOS Linux 7.0.1406版 Hadoop:2.6.0 Java:1.7 我的问题是hadoop堆内存。我目前正在reducer设置步骤中成功读取50 MB的文件,但当文件大于约500 MB时,会出现内存不足错误。当我浏览http:/ip_地址:50070/dfshhealth.htmltab-overview时,它提供了以下信息 堆内存使用了471 MB堆内存中的282.52 MB。最大堆内存为8.89 GB 有关错误的详细说明: M
Map-Reduce Framework
Map input records=176
Map output records=512299
Map output bytes=26127249
Map output materialized bytes=27151853
Input split bytes=108
Combine input records=0
Spilled Records=512299
Failed Shuffles=0
Merged Map outputs=0
GC time elapsed (ms)=87
CPU time spent (ms)=4410
Physical memory (bytes) snapshot=277155840
Virtual memory (bytes) snapshot=903360512
Total committed heap usage (bytes)=202375168
File Input Format Counters
Bytes Read=846327
配置中缺少什么。有人能帮我吗???你能增加你的堆数吗?Hadoop是为具有许多GB内存的系统而设计的,例如数十或数百。50MB需要多少内存?我建议您将其设置为10倍。是的,我已经将其增加到8.89GB,但即使加载500MB文件,也会给我带来错误。我会一直增加它,直到您没有收到错误。50 MB使用了多少内存?嗨,Peter,实际上问题可能是安装程序上的问题。以前我使用的是hadoop 1.2.1,堆空间为7.11GB。但在新的设置中,相同的map_reduce作业不起作用。为什么会这样很难知道,因为从过去两天开始,我几乎检查了hadoop的所有配置。如果你有任何关于它的想法,请让我知道..你可以在jvisualvm中观察这个过程,看看它使用了多少。