hadoop namenode在重新启动后无法连接到datanode

hadoop namenode在重新启动后无法连接到datanode,hadoop,hdfs,Hadoop,Hdfs,我有一个4节点的hadoop集群。它运转良好。 我使用以下命令临时停止hadoop群集: stop-dfs.sh stop-yarn.sh 当我使用以下命令重新启动时: start-dfs.sh start-yarn.sh 所有jps(hadoop进程)在所有4个节点上都运行良好, 但在运行map reduce作业时显示以下错误日志: org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/hduser4/

我有一个4节点的hadoop集群。它运转良好。 我使用以下命令临时停止hadoop群集:

stop-dfs.sh
stop-yarn.sh
当我使用以下命令重新启动时:

start-dfs.sh
start-yarn.sh
所有jps(hadoop进程)在所有4个节点上都运行良好, 但在运行map reduce作业时显示以下错误日志:

org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/hduser4/QuasiMonteCarlo_14 21995096158_792628557/in/part0 could only be replicated to 0 nodes instead of minReplication (=1).
There are 0 datanode(s) running and no node(s) are excluded in this operation.   
上述问题的一个选项是重新格式化HDFS,但它将删除我的现有数据,这对于生产系统来说不是一个合适的解决方案。

请看以下内容: