Java Hbase表不一致[未在任何区域服务器上部署区域]
在一个小型HBase集群中,所有从节点都重新启动。当我启动HBase服务时,其中一个表(test)变得不一致Java Hbase表不一致[未在任何区域服务器上部署区域],java,hadoop,hbase,cloudera,Java,Hadoop,Hbase,Cloudera,在一个小型HBase集群中,所有从节点都重新启动。当我启动HBase服务时,其中一个表(test)变得不一致 hbase(main):001:0> assign 'abcdef123456789abcdef12345678912' HDFS中缺少一些块(hbase块)。所以它处于安全模式。我发出了safemode-leave命令 然后HBase表(测试)变得不一致 我执行了以下提到的操作: 我执行了几次“hbase hbck”。2发现表“测试”不一致 错误:区域{meta=>测试,1m\
hbase(main):001:0> assign 'abcdef123456789abcdef12345678912'
HDFS中缺少一些块(hbase块)。所以它处于安全模式。我发出了safemode-leave
命令
然后HBase表(测试)变得不一致
我执行了以下提到的操作:
错误:区域{meta=>测试,1m\x00\x03\x1B\x15139349284371.4c213a47bba83c47075f21fec7c6d862.,hdfs=>hdfs://master:9000/hbase/test/4c213a47bba83c47075f21fec7c6d862,已部署=>}未部署在任何区域服务器上。
{NAME=>'test,1m\x00\x03\x1B\x15139349284371.4c213a47bba83c47075f21fec7c6d862',STARTKEY=>'1m\x00\x03\x1B\x15',ENDKEY=>'',ENCODED=>4c213a47bba83c47075f21fec7c6d862,}
{NAME=>'test,1m\x00\x03\x1B\x15139349284371.4c213a47bba83c47075f21fec7c6d862',STARTKEY=>'1m\x00\x03\x1B\x15',ENDKEY=>'',ENCODED=>4c213a47bba83c47075f21fec7c6d862,}
org.apache.hadoop.hdfs.server.datanode.datanode:opReadBlock BP-1015188871-192.168.1.11-1391187113543:blk_7616957984716737802_27846收到异常java.io.EOFException
WARN org.apache.hadoop.hdfs.server.datanode.datanode:DatanodeRegistration(192.168.1.12,storageID=DS-831971799-192.168.1.12-50010-1391193910800,infoPort=50075,IPPort=50020,storageInfo=lv=-40;cid=cid-7f99a9de-258c-493c-9db0-46b9e84b4c12;nsid=1286773982;c=0):为BP-1015188871-192.168.1.11-1391187113543提供服务时出现异常:blk_7616957984716737802_27846至/192.168.1.12:36127
ERROR org.apache.hadoop.security.UserGroupInformation: PriviledgedActionException as:ubuntu (auth:SIMPLE) cause:java.io.FileNotFoundException: File does not exist: /hbase/test/4c213a47bba83c47075f21fec7c6d862/C 2014-02-28 14:13:15,738
INFO org.apache.hadoop.ipc.Server: IPC Server handler 6 on 9000, call org.apache.hadoop.hdfs.protocol.ClientProtocol.getBlockLocations from
10.10.242.31:42149: error: java.io.FileNotFoundException: File does not exist: /hbase/test/4c213a47bba83c47075f21fec7c6d862/C java.io.FileNotFoundException: File does not exist: /hbase/test/4c213a47bba83c47075f21fec7c6d862/C at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getBlockLocationsUpdateTimes(FSNamesystem.java:1301)
hbase hbck -details
ERROR: Region {
meta => my.tablename,,1500001112222.abcdef123456789abcdef12345678912.,
hdfs => hdfs://cluster/apps/hbase/data/data/default/my.tablename/abcdef123456789abcdef12345678912,
deployed => ,
replicaId => 0
} not deployed on any region server.
(密钥“未部署在任何区域服务器上”),则应分配区域。事实证明,这很简单。继续执行步骤4hbase shell
hbase(main):001:0> assign 'abcdef123456789abcdef12345678912'
hbase hbck my.tablename
如果所有操作都正确,并且没有潜在的HDFS问题,则应在hbck输出的底部附近看到以下消息:
0 inconsistencies detected.
Status: OK
在Hbase 2.0.2版本中,没有修复选项来恢复不一致
cat incosistant.out | awk-F.“{print$2}”
分配完成后,再次运行hbase hbck命令我也遇到了同样的问题。结果是有区域重叠。我如何修复:
或者您可以重新启动hbase并运行“hbase hbck-repair”是否检查了hdfs一致性(hadoop fsck/)?是的。它显示“/”文件系统已损坏。它显示为损坏的文件属于hbase。您需要首先修复HDFS-您可以从这里的答案开始,如果我的HDFS状态正常,但我仍然无法通过hbase选项修复hbase hbck不一致的问题,该怎么办?
ERROR: Region { meta => EMP_NMAE,\x02\x00\x00\x00\x00,1571419090798.054b393c37a80563ae1aa60f29e3e4df., hdfs => hdfs://node1:8020/apps/hbase/data/data/LEVEL_RESULT/054b393c37a80563ae1aa60f29e3e4df, deployed => , replicaId => 0 } not deployed on any region server.
ERROR: Region { meta => TABLE_3,\x02174\x0011100383\x00496\x001,1571324271429.6959c7157693956825be65676ced605c., hdfs => hdfs://node1:8020/apps/hbase/data/data/TABLE_NAME/6959c7157693956825be65676ced605c, deployed => , replicaId => 0 } not deployed on any region server.
assign '054b393c37a80563ae1aa60f29e3e4df'
assign '6959c7157693956825be65676ced605c'
assign '7058dfe0da0699865a5b63be9d3799ab'
assign 'd25529539bae49eb078c7d0ca6ce84e4'
assign 'e4ad94f58e310a771a0f5a1eade884cc'