hadoop HDFS数据节点在重新启动HDFS后丢失文件
我已重新启动HDFS namenodes和datanodes。ClusterID发生了变化,因此我正确配置了,但是storageID和DataNodeUID我不知道在哪里可以找到正确的配置来检测DFS文件。我检查了df-h,有以下文件:hadoop HDFS数据节点在重新启动HDFS后丢失文件,hadoop,hdfs,microsoft-distributed-file-system,Hadoop,Hdfs,Microsoft Distributed File System,我已重新启动HDFS namenodes和datanodes。ClusterID发生了变化,因此我正确配置了,但是storageID和DataNodeUID我不知道在哪里可以找到正确的配置来检测DFS文件。我检查了df-h,有以下文件: ikerlan@172:/opt/hadoop/sbin$ df -h Filesystem Size Used Avail Use% Mounted on udev 5,8G 4,0K 5,8G 1% /dev tmp
ikerlan@172:/opt/hadoop/sbin$ df -h
Filesystem Size Used Avail Use% Mounted on
udev 5,8G 4,0K 5,8G 1% /dev
tmpfs 1,2G 964K 1,2G 1% /run
/dev/vda1 977G 289G 639G 32% /
none 4,0K 0 4,0K 0% /sys/fs/cgroup
none 5,0M 0 5,0M 0% /run/lock
none 5,8G 1,3M 5,8G 1% /run/shm
none 100M 36K 100M 1% /run/user
但是从HDFS网站上我看不到任何文件