Java Hadoop jps&;格式名称节点导致分段错误

Java Hadoop jps&;格式名称节点导致分段错误,java,ubuntu,hadoop,apache-spark,yarn,Java,Ubuntu,Hadoop,Apache Spark,Yarn,我昨晚启动了集群,但出现了一些小问题。45分钟后,它开始进行日志滚动,然后集群开始抛出JVM等待错误。从那时起,集群将不会重新启动。启动时,资源管理器未启动 服务器名称节点和数据节点也处于脱机状态 我在服务器上安装了两次hadoop 2.8,删除了第一个,重新安装了第二个,并对文件进行了调整以重新启动 崩溃时的错误日志,似乎是Java堆栈溢出,超出范围,日志中保存的内存越来越大。我的期望是我在某个地方错误地配置了记忆。我去删除和重新格式化的名称节点,我得到相同的分割错误。在这一点上,我不知道该怎

我昨晚启动了集群,但出现了一些小问题。45分钟后,它开始进行日志滚动,然后集群开始抛出JVM等待错误。从那时起,集群将不会重新启动。启动时,资源管理器未启动

服务器名称节点和数据节点也处于脱机状态

我在服务器上安装了两次hadoop 2.8,删除了第一个,重新安装了第二个,并对文件进行了调整以重新启动

崩溃时的错误日志,似乎是Java堆栈溢出,超出范围,日志中保存的内存越来越大。我的期望是我在某个地方错误地配置了记忆。我去删除和重新格式化的名称节点,我得到相同的分割错误。在这一点上,我不知道该怎么办

Ubuntu Mate 16.04、Hadoop 2.8、Spark for Hadoop 2.7、NFS、Scalia

当我现在开始纺纱时,我得到以下错误消息

hduser@nodeserver:/opt/hadoop-2.8.0/sbin$sudo./start-warn.sh

起始线程守护进程

启动resourcemanager,登录到/opt/hadoop-2.8.0/logs/warn root->resourcemanager-nodeserver.out

/opt/hadoop-2.8.0/sbin/thread-daemon.sh:line 103:5337 Segmentation>fault nohup nice-n$thread\u NICENESS“$hadoop\u thread\u HOME”/bin/thread-->config$thread\u CONF\u DIR$命令“$@”>“$log”2>&1 node1:启动nodemanager,记录到/opt/hadoop-2.8.0/logs/warn->root-nodemanager-node1.out node3:启动nodemanager,记录到/opt/hadoop-2.8.0/logs/warn->root-nodemanager-node3.out node2:启动nodemanager,记录到/opt/hadoop-2.8.0/logs/warn->root-nodemanager-node2.out 启动proxyserver,登录到/opt/hadoop-2.8.0/logs/warn root->proxyserver-nodeserver.out

/opt/hadoop-2.8.0/sbin/thread-daemon.sh:line 103:5424 Segmentation>fault nohup nice-n$thread\u NICENESS“$hadoop\u thread\u HOME”/bin/thread-->config$thread\u CONF\u DIR$命令“$@”>“$log”2>&1 编辑以添加更多错误输出以获取帮助

>hduser@nodeserver:/opt/hadoop-2.8.0/sbin$ jps
分段故障

分段故障

显示Java堆栈的日志变得疯狂,从512k扩展到5056k。那么,如何重置堆栈呢

堆: def新一代总计5056K,使用量1300K[0x35c00000,0x36170000,>0x4a950000) eden空间4544K,使用率为28%[0x35c00000、0x35d43b60、0x36070000) 从空间512K开始,1%已使用[0x360f0000、0x360f1870、0x36170000) 到空间512K,0%已使用[0x36070000,0x36070000,0x360f0000) 终身发电总量10944K,使用量9507K[0x4a950000,0x4b400000,>0x74400000) 空间10944K,86%已使用[0x4a950000、0x4b298eb8、0x4b299000、0x4B40000) 元空间使用18051K,容量18267K,提交18476K,保留18736K

更新24小时后,我尝试在Java和Hadoop上完全重新安装,但仍然没有成功。当我尝试Java-version时,我仍然会遇到分段错误

似乎我有一个堆栈溢出,并没有简单的修复。更容易重新开始,并用干净的软件重建集群

>hduser@nodeserver:/opt/hadoop-2.8.0/bin$ sudo ./hdfs namenode -format