Apache spark 内存属性控制什么内存?RAM还是磁盘?

Apache spark 内存属性控制什么内存?RAM还是磁盘?,apache-spark,Apache Spark,您可以设置如下所述的spark.driver.memory和spark.executor.memory: spark.driver.memory 1g Amount of memory to use for the driver process spark.executor.memory 1g Amount of memory to use per executor process (e.g. 2g, 8g). 上面的配置表示内存。那么它是RAM内存还是磁盘呢?(我必须承认这是一个非常

您可以设置如下所述的
spark.driver.memory
spark.executor.memory

spark.driver.memory 1g Amount of memory to use for the driver process 

spark.executor.memory 1g Amount of memory to use per executor process (e.g. 2g, 8g).  
上面的配置表示内存。那么它是RAM内存还是磁盘呢?

(我必须承认这是一个非常有趣的问题)

简而言之,它是RAM(实际上Spark不支持将磁盘作为从群集管理器接受/请求的资源)

从官方文件:

用于驱动程序进程的内存量,即SparkContext初始化的位置。(例如1g、2g)

注意:在客户机模式下,不能直接在应用程序中通过SparkConf设置此配置,因为此时驱动程序JVM已经启动。相反,请通过--driver memory命令行选项或在默认属性文件中进行设置


100%肯定当任何编程相关文档中提到单词memory时,它总是指系统的主存,即RAM,如果涉及长期存储驱动器,则使用单词disk