Scala ReduceByKey参数可以改变第一个参数吗?

Scala ReduceByKey参数可以改变第一个参数吗?,scala,apache-spark,Scala,Apache Spark,pairddfunctions.aggregateByKeyscaladoc状态 为了避免内存分配,这两个函数都可以修改和返回它们的第一个参数,而不是创建新的U 当内存分配成为拦截器时,必须利用这一点 但是,pairddfunctions.reduceByKeyscaladoc不包含相同的句子 这两种方法都是根据一个通用的底层方法(combineByKeyWithClassTag)实现的,因此使用可变结构的能力也应该保持不变。但是,aggregateByKey对提供的功能进行了一些初步的“清理”

pairddfunctions.aggregateByKey
scaladoc状态

为了避免内存分配,这两个函数都可以修改和返回它们的第一个参数,而不是创建新的U

当内存分配成为拦截器时,必须利用这一点

但是,
pairddfunctions.reduceByKey
scaladoc不包含相同的句子

这两种方法都是根据一个通用的底层方法(
combineByKeyWithClassTag
)实现的,因此使用可变结构的能力也应该保持不变。但是,
aggregateByKey
对提供的功能进行了一些初步的“清理”,这些清理可能相关,也可能无关。(
self.context.clean(seqOp)

是否可以为
seqOp
传递一个将其第一个参数变为
reduceByKey
的函数值