以前很好的单节点Hadoop集群抛出';无法分配内存java.lang.OutOFMemoryError“;突然

以前很好的单节点Hadoop集群抛出';无法分配内存java.lang.OutOFMemoryError“;突然,hadoop,out-of-memory,hdp,Hadoop,Out Of Memory,Hdp,我在RHEL7.6VM中有一个单节点HDP集群。在将近8个月的时间里,它一直运转良好。在过去的几天里,它抛出“java.lang.OutOFMemoryError”,并且没有任何服务启动。基于web中的许多资源,我检查了交换文件的大小。交换容量是4GB,现在几乎满了。我正在增加掉期规模,但我想知道是什么导致了这个问题,以便我能够避免它们。这个集群并没有被大量使用,我使用Sqoop加载了一些配置单元表,还有一些Tableau仪表板正在使用这些配置单元表。有一个日常作业可以执行sqoop增量加载。T

我在RHEL7.6VM中有一个单节点HDP集群。在将近8个月的时间里,它一直运转良好。在过去的几天里,它抛出“java.lang.OutOFMemoryError”,并且没有任何服务启动。基于web中的许多资源,我检查了交换文件的大小。交换容量是4GB,现在几乎满了。我正在增加掉期规模,但我想知道是什么导致了这个问题,以便我能够避免它们。这个集群并没有被大量使用,我使用Sqoop加载了一些配置单元表,还有一些Tableau仪表板正在使用这些配置单元表。有一个日常作业可以执行sqoop增量加载。Tableau extract每天从配置单元表中刷新。除此之外,这里没有繁重的工作。这个虚拟机有8GB内存和16个内核。虽然我可以通过增加交换大小来解决这个问题,但我想知道是什么突然触发了这个内存问题