Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/hadoop/6.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Hadoop spark在本地模式下提交-配置_Hadoop_Apache Spark - Fatal编程技术网

Hadoop spark在本地模式下提交-配置

Hadoop spark在本地模式下提交-配置,hadoop,apache-spark,Hadoop,Apache Spark,我正在笔记本电脑(spark 1.6.1)上使用--master local执行spark提交,将数据加载到配置单元表中。笔记本电脑有8 GB RAM和4个内核。我没有手动设置任何属性-只是使用默认值 当我加载50k条记录时,作业成功完成。但当我尝试加载200k条记录时,我得到了一个“超出GC开销限制”错误 在--master local模式下,是否可以手动设置作业内存或堆内存的属性?尝试增加--driver memory,-executor memory,两者的默认值均为1g 命令应如下所示:

我正在笔记本电脑(spark 1.6.1)上使用
--master local
执行
spark提交
,将数据加载到配置单元表中。笔记本电脑有8 GB RAM和4个内核。我没有手动设置任何属性-只是使用默认值

当我加载50k条记录时,作业成功完成。但当我尝试加载200k条记录时,我得到了一个“超出GC开销限制”错误

在--master local模式下,是否可以手动设置作业内存或堆内存的属性?

尝试增加--driver memory,-executor memory,两者的默认值均为1g

命令应如下所示:

spark-submit --master local --driver-memory 2g --executor-memory  2g  --class classpath jarfile

谢谢你的回复,阿文德。我会试试的。但就我而言,这是我的笔记本电脑——只有一台机器。司机是执行人。在这种情况下,我应该尝试不同的值--driver memory我的理解正确吗?@xplorerdev即使是一台机器,也有一台机器作为驱动者和执行者。若我看到这个程序,我可以理解您在驱动程序级别或执行程序级别收到错误“超出GC开销限制”。现在我不确定你到底在哪里出错。这就是我给出两个选择的原因。您可以先尝试--驱动程序内存,如果没有解决,请尝试--执行器内存。