Apache spark 内存属性控制什么内存?RAM还是磁盘?
您可以设置如下所述的Apache spark 内存属性控制什么内存?RAM还是磁盘?,apache-spark,Apache Spark,您可以设置如下所述的spark.driver.memory和spark.executor.memory: spark.driver.memory 1g Amount of memory to use for the driver process spark.executor.memory 1g Amount of memory to use per executor process (e.g. 2g, 8g). 上面的配置表示内存。那么它是RAM内存还是磁盘呢?(我必须承认这是一个非常
spark.driver.memory
和spark.executor.memory
:
spark.driver.memory 1g Amount of memory to use for the driver process
spark.executor.memory 1g Amount of memory to use per executor process (e.g. 2g, 8g).
上面的配置表示内存。那么它是RAM内存还是磁盘呢?(我必须承认这是一个非常有趣的问题)
简而言之,它是RAM(实际上Spark不支持将磁盘作为从群集管理器接受/请求的资源)
从官方文件:
用于驱动程序进程的内存量,即SparkContext初始化的位置。(例如1g、2g)
注意:在客户机模式下,不能直接在应用程序中通过SparkConf设置此配置,因为此时驱动程序JVM已经启动。相反,请通过--driver memory命令行选项或在默认属性文件中进行设置
100%肯定当任何编程相关文档中提到单词memory时,它总是指系统的主存,即RAM,如果涉及长期存储驱动器,则使用单词disk