Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/batch-file/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop 在运行配置单元脚本时,我遇到了超出容器内存限制且查询失败的情况。目前它默认为1GB_Hadoop_Hive - Fatal编程技术网

Hadoop 在运行配置单元脚本时,我遇到了超出容器内存限制且查询失败的情况。目前它默认为1GB

Hadoop 在运行配置单元脚本时,我遇到了超出容器内存限制且查询失败的情况。目前它默认为1GB,hadoop,hive,Hadoop,Hive,我在一个4节点集群上运行 请建议容器内存的大小。如果我把它放在超过1GB的地方,那么确切的大小是多少 配置容器内存的标准是什么 错误: 此任务的诊断消息: 集装箱[pid=46465,containerID=Container_1503271937182_4757_01_000032]为 超出物理内存限制运行。当前使用情况:1 GB中的1.0 GB 使用的物理内存;使用2.7 GB的2.1 GB虚拟内存。谋杀 容器。 容器_1503271937182_4757_01_000032的过程树转储:

我在一个4节点集群上运行

请建议容器内存的大小。如果我把它放在超过1GB的地方,那么确切的大小是多少

配置容器内存的标准是什么

错误:

此任务的诊断消息: 集装箱[pid=46465,containerID=Container_1503271937182_4757_01_000032]为 超出物理内存限制运行。当前使用情况:1 GB中的1.0 GB 使用的物理内存;使用2.7 GB的2.1 GB虚拟内存。谋杀 容器。 容器_1503271937182_4757_01_000032的过程树转储: |-PID PPID PGRPID SESSID CMD_NAME USER_MODE_TIME(毫秒)SYSTEM_TIME(毫秒)VMEM_USAGE(字节)RSSMEM_USAGE(页面) 全命令行 |-465 463 465 46465 46465(bash)0 108654592 308/bin/bash-c/usr/java/jdk1.8.0_121/bin/java -Djava.net.preferIPv4Stack=true-Dhadoop.metrics.log.level=WARN-Djava.net.preferIPv4Stack=true-Xmx820m-Djava.io.tmpdir=/data3/WARN/nm/usercache/hdfs/appcache/application_15032719371824757/container_15032719371824757_01000032/tmp -Dlog4j.configuration=container-log4j.properties-Dyarn.app.container.log.dir=/data1/warn/container logs/application_1503271937182_4757/container_1503271937182_4757_01_000032 -Dyarn.app.container.log.filesize=0-Dhadoop.root.logger=INFO,CLA-Dhadoop.root.logfile=syslog org.apache.hadoop.mapred.YarnChild 10.104.72.113 58079尝试 2> /data1/纱线/集装箱原木/应用_1503271937182_4757/集装箱_1503271937182_4757_01_000032/stderr |-46483 465 465 465 46465(java)2929 1281 2828042240 262018/usr/java/jdk1.8.0_121/bin/java-Djava.net.preferIPv4Stack=true -Dhadoop.metrics.log.level=WARN-Djava.net.preferIPv4Stack=true-Xmx820m-Djava.io.tmpdir=/data3/WARN/nm/usercache/hdfs/appcache/application_1503271937182_4757/container_1503271937182_4757_01_000032/tmp -Dlog4j.configuration=container-log4j.properties-Dyarn.app.container.log.dir=/data1/warn/container logs/application_1503271937182_4757/container_1503271937182_4757_01_000032 -Dyarn.app.container.log.filesize=0-Dhadoop.root.logger=INFO,CLA-Dhadoop.root.logfile=syslog org.apache.hadoop.mapred.YarnChild 10.104.72.113 58079尝试

集装箱在要求时被杀死。出口代码是143 容器以非零退出代码143退出

失败:执行错误,从org.apache.hadoop.hive.ql.exec.mr.MapRedTask返回代码2 推出MapReduce作业: 第1阶段:映射:18减少:72累计CPU:1219.78秒HDFS读取:3412303867 HDFS写入:3935714成功 第9阶段:映射:18减少:72累计CPU:332.43秒HDFS读取:3321536722 HDFS写入:0失败 MapReduce CPU总时间:25分52秒210毫秒 蜂巢失败了


就连我也面临着同样的错误。你找到解决办法了吗?就连我也面临着同样的错误。你找到解决办法了吗?