Apache spark 如果不需要缓存,apache spark会重用堆内存吗?
如果spark 2.x应用程序中不需要缓存,建议我将Apache spark 如果不需要缓存,apache spark会重用堆内存吗?,apache-spark,apache-spark-2.0,Apache Spark,Apache Spark 2.0,如果spark 2.x应用程序中不需要缓存,建议我将spark.storage.fraction设置为零。spark难道不知道在不进行缓存的情况下重新使用该空间吗?我真的应该告诉它缓存专用空间应该重新用于处理吗?因此答案是肯定的,spark 2.x正在存储和处理之间重新分配堆空间
spark.storage.fraction
设置为零。spark难道不知道在不进行缓存的情况下重新使用该空间吗?我真的应该告诉它缓存专用空间应该重新用于处理吗?因此答案是肯定的,spark 2.x正在存储和处理之间重新分配堆空间