Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/dart/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Greenplum问题-用于GPHDFS访问HDP2.x群集的HDFS协议安装_Greenplum_Hawq - Fatal编程技术网

Greenplum问题-用于GPHDFS访问HDP2.x群集的HDFS协议安装

Greenplum问题-用于GPHDFS访问HDP2.x群集的HDFS协议安装,greenplum,hawq,Greenplum,Hawq,当我尝试使用GPHDFS协议读取外部表时。此外,我无法通过greenplum群集访问HDP2.X文件 获取错误 devdata=# select count(*) from schema.ext_table; ERROR: external table gphdfs protocol command ended with error. Error occurred during initialization of VM (seg5 slice1 datanode0:40001 pid=134

当我尝试使用GPHDFS协议读取外部表时。此外,我无法通过greenplum群集访问HDP2.X文件

获取错误

devdata=# select count(*) from schema.ext_table;
ERROR:  external table gphdfs protocol command ended with error. Error occurred during initialization of VM  (seg5 slice1 datanode0:40001 pid=13407)
DETAIL:  
java.lang.OutOfMemoryError: unable to create new native thread
Command: 'gphdfs://Authorithy/path
更多症状

无法从greenplum群集的gpadmin用户运行Hadoop列表文件命令

就是

gpadmin$hdfs dfs -ls hdfs://namenode/file/path
我们尝试过:
选中与gphdfs vm参数相关的设置。

请提供创建外部表命令。您的“OutOfMemoryError”也与此有关,因此请提供GPDB群集的内存详细信息。无法创建本机线程意味着您需要更多虚拟地址空间。什么是超限值?超负荷率?交换空间?gp_vmem_保护_限制?