Scala ReduceByKey参数可以改变第一个参数吗?
Scala ReduceByKey参数可以改变第一个参数吗?,scala,apache-spark,Scala,Apache Spark,pairddfunctions.aggregateByKeyscaladoc状态 为了避免内存分配,这两个函数都可以修改和返回它们的第一个参数,而不是创建新的U 当内存分配成为拦截器时,必须利用这一点 但是,pairddfunctions.reduceByKeyscaladoc不包含相同的句子 这两种方法都是根据一个通用的底层方法(combineByKeyWithClassTag)实现的,因此使用可变结构的能力也应该保持不变。但是,aggregateByKey对提供的功能进行了一些初步的“清理”
pairddfunctions.aggregateByKey
scaladoc状态
为了避免内存分配,这两个函数都可以修改和返回它们的第一个参数,而不是创建新的U
当内存分配成为拦截器时,必须利用这一点
但是,pairddfunctions.reduceByKey
scaladoc不包含相同的句子
这两种方法都是根据一个通用的底层方法(combineByKeyWithClassTag
)实现的,因此使用可变结构的能力也应该保持不变。但是,aggregateByKey
对提供的功能进行了一些初步的“清理”,这些清理可能相关,也可能无关。(self.context.clean(seqOp)
)
是否可以为seqOp
传递一个将其第一个参数变为reduceByKey
的函数值