Apache spark apachespark';s性能调整
我正在做一个项目,我必须调整spark的表现。我发现了四个最重要的参数,这将有助于调整spark的性能。详情如下:Apache spark apachespark';s性能调整,apache-spark,Apache Spark,我正在做一个项目,我必须调整spark的表现。我发现了四个最重要的参数,这将有助于调整spark的性能。详情如下: 火花、记忆、分数 spark.memory.offHeap.size spark.storage.memoryFraction spark.shuffle.memoryFraction 我想知道我的方向是否正确?请让 我知道如果我错过了一些其他参数也 提前谢谢。这是一个相当宽泛的诚实回答。优化性能的正确途径主要在相关章节的正式文档中描述 一般来说,有很多因素可以优化spark工作:
提前谢谢。这是一个相当宽泛的诚实回答。优化性能的正确途径主要在相关章节的正式文档中描述 一般来说,有很多因素可以优化spark工作:
- 数据序列化
- 内存调整
- 平行度
- Reduce任务的内存使用
- 广播大变量
- 数据位置
我要指出的是,除了问题中提到的一个选项外,其他所有选项都已被弃用,并且仅在遗留模式下使用
我们可以把这个问题分成两部分
Sparkrens的最佳功能之一是,它模拟并告诉您spark应用程序在不同执行器计数下的性能,以及每个执行器计数下的预期集群利用率水平。帮助您在时间和效率之间做出正确的权衡。我要指出,除了问题中提到的一个选项外,其他所有选项都已弃用,仅在传统模式下使用。谢谢@zero323!