在python 3.5.2中,如何在对象上优雅地链接未知数量的函数,而不是更改类型?

在python 3.5.2中,如何在对象上优雅地链接未知数量的函数,而不是更改类型?,python,apache-spark,pyspark,rdd,Python,Apache Spark,Pyspark,Rdd,导言 object_to_process = dataframe.rdd for transfo in transformation_functions: object_to_process = object_to_process.map(transfo) object_to_process.saveAsNewAPIHadoopFile 我不太确定标题是否清楚。我不是以英语为母语的人,所以如果有人对这篇文章有更好的总结,

导言

        object_to_process = dataframe.rdd
        for transfo in transformation_functions:
            object_to_process = object_to_process.map(transfo)

        object_to_process.saveAsNewAPIHadoopFile
我不太确定标题是否清楚。我不是以英语为母语的人,所以如果有人对这篇文章有更好的总结,请编辑

环境

  • python 3.5.2
  • pyspark 2.3.0
上下文

我有一个spark数据框。这些数据在写入弹性搜索之前会被转换

在我的例子中,我有两个转换。它们是数据帧rdd上的
map
函数

但是,我不想硬写它们,而是希望这样做,以便我可以给我的函数(处理数据转换)X个函数,这些函数将一个接一个地应用于数据帧(对于第一个函数)和/或上一个转换函数的结果

初始工作

这是以前的状态,不需要,硬写:

df.rdd.map(transfo1) \
        .map(transfo2) \
        .saveAsNewAPIHadoopFile
到目前为止我拥有的

def write_to_index(self, transformation_functions: list, dataframe):
    // stuff
    for transfo in transformation_functions:
        dataframe = dataframe.rdd.map(transfo)

        dataframe.saveAsNewAPIHadoopFile
但是,这有一个问题:如果第一次转换的返回不是数据帧,它将在循环的第二次迭代中失败,因为生成的对象没有rdd属性

工作解决方案

        object_to_process = dataframe.rdd
        for transfo in transformation_functions:
            object_to_process = object_to_process.map(transfo)

        object_to_process.saveAsNewAPIHadoopFile

上述解决方案似乎有效(至少会引发任何错误)。但我想知道是否有更优雅的解决方案或任何内置python解决方案用于此问题。

您可以使用以下一行程序:

from functools import reduce

def write_to_index(self, transformation_functions: list, dataframe):
    reduce(lambda x, y: x.map(y), transformation_functions, dataframe.rdd).saveAsNewAPIHadoopFile
如果写得很详细,应该与

dataframe.rdd.map(transformation_functions[0]) \
             .map(transformation_functions[1]) \
             .map(...) \
             .saveAsNewAPIHadoopFile