Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/macos/9.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
为什么我所有的Hbase区域服务器都关闭了_Hbase - Fatal编程技术网

为什么我所有的Hbase区域服务器都关闭了

为什么我所有的Hbase区域服务器都关闭了,hbase,Hbase,由于以下异常,我的所有HbaseRegion服务器都崩溃(停止): java.net.SocketException: Too many open files at sun.nio.ch.Net.socket0(Native Method) at sun.nio.ch.Net.socket(Net.java:441) at sun.nio.ch.Net.socket(Net.java:434) at sun.nio.ch.SocketChannelImpl.<

由于以下异常,我的所有HbaseRegion服务器都崩溃(停止):

java.net.SocketException: Too many open files
    at sun.nio.ch.Net.socket0(Native Method)
    at sun.nio.ch.Net.socket(Net.java:441)
    at sun.nio.ch.Net.socket(Net.java:434)
    at sun.nio.ch.SocketChannelImpl.<init>(SocketChannelImpl.java:105)
    at sun.nio.ch.SelectorProviderImpl.openSocketChannel(SelectorProviderImpl.java:60)
    at java.nio.channels.SocketChannel.open(SocketChannel.java:142)
    at org.apache.hadoop.net.StandardSocketFactory.createSocket(StandardSocketFactory.java:62)
    at org.apache.hadoop.hdfs.DFSOutputStream.createSocketForPipeline(DFSOutputStream.java:1620)
java.net.SocketException:打开的文件太多
at sun.nio.ch.Net.socket0(本机方法)
位于sun.nio.ch.Net.socket(Net.java:441)
位于sun.nio.ch.Net.socket(Net.java:434)
位于sun.nio.ch.SocketChannelImpl.(SocketChannelImpl.java:105)
在sun.nio.ch.SelectorProviderImpl.openSocketChannel(SelectorProviderImpl.java:60)
位于java.nio.channels.SocketChannel.open(SocketChannel.java:142)
位于org.apache.hadoop.net.StandardSocketFactory.createSocket(StandardSocketFactory.java:62)
位于org.apache.hadoop.hdfs.DFSOutputStream.createSocketForPipeline(DFSOutputStream.java:1620)
但我确实将操作系统用户文件描述符增加到了65535,并给了Hbase 55535,为什么Hbase仍然在这个配置上崩溃

我试图向Hbase插入2000万大行,每行可能有1MB-10MB,前1000万条记录运行良好,但后1000万条记录导致Hbase崩溃

根据HBase文档,您应该能够检查您认为要设置的ulimit是否已真正设置:

此外,一个常见的错误是管理员会为特定用户设置文件描述符,但无论出于何种原因,HBase都会像其他用户一样运行。HBase在日志中打印,作为ulimit看到的第一行。确保其正确性

根据HBase文档,您应该能够检查您认为要设置的ulimit是否已真正设置:

此外,一个常见的错误是管理员会为特定用户设置文件描述符,但无论出于何种原因,HBase都会像其他用户一样运行。HBase在日志中打印,作为ulimit看到的第一行。确保其正确性