Pyspark 内存不足,Java运行时环境无法继续spark submit

Pyspark 内存不足,Java运行时环境无法继续spark submit,pyspark,amazon-emr,Pyspark,Amazon Emr,我在做Pypark的工作 spark-submit --driver-memory 2g --executor-memory 2g --conf spark.driver.maxResultSize=2g job.py 我尝试更改多个选项,但每次都出现以下错误: OpenJDK 64位服务器VM警告:信息:os::提交_内存(0x000000072324e000985616384,0)失败;错误=“无法分配内存”(errno=12) 内存不足,Java运行时环境无法继续。 本机内存分配(mm

我在做Pypark的工作

spark-submit --driver-memory 2g --executor-memory 2g  --conf spark.driver.maxResultSize=2g job.py
我尝试更改多个选项,但每次都出现以下错误:

OpenJDK 64位服务器VM警告:信息:os::提交_内存(0x000000072324e000985616384,0)失败;错误=“无法分配内存”(errno=12) 内存不足,Java运行时环境无法继续。 本机内存分配(mmap)映射985616384字节以提交保留内存失败。 包含详细信息的错误报告文件另存为:
我是spark的新手。有人能帮我找出解决方案吗。

尝试减少驱动程序内存-提交作业的节点的内存不足。

尝试减少驱动程序内存-提交作业的节点的内存不足