Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/341.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 合并具有指定后缀的多个数据帧_Python_Pandas - Fatal编程技术网

Python 合并具有指定后缀的多个数据帧

Python 合并具有指定后缀的多个数据帧,python,pandas,Python,Pandas,我实现了合并引用的多个数据帧。 我要做的是为每个数据帧指定后缀,如下所示。 但是,我得到了ValueError:太多的值无法解压缩(预期为2) 我理解为后缀指定长度超过2的元组会导致此问题。但我不知道如何编写代码来解决此问题。 谁能告诉我怎么写 def agg_df(dfList, suffix): temp=reduce(lambda left, right: pd.merge(left, right, left_index=True, right_index=True,

我实现了合并引用的多个数据帧。
我要做的是为每个数据帧指定后缀,如下所示。
但是,我得到了
ValueError:太多的值无法解压缩(预期为2)

我理解为后缀指定长度超过2的元组会导致此问题。但我不知道如何编写代码来解决此问题。
谁能告诉我怎么写

def agg_df(dfList, suffix):
    temp=reduce(lambda left, right: pd.merge(left, right, left_index=True, right_index=True, 
                                             how='outer', suffixes=suffix), dfList)
    return temp

df=agg_df([df_cool, df_light, df_sp, df_hvac], ('_chiller', '_light', '_sp', '_hvac'))

您可以在
合并
之前添加后缀,包括:

然后从
merge
中删除
后缀
参数,就完成了:

def agg_df(dfList):
    temp=reduce(lambda left, right: pd.merge(left, right, 
                                             left_index=True, right_index=True, 
                                             how='outer'), dfList)
    return temp

df = agg_df(dfs.values())

您可以在
合并
之前添加后缀,包括:

然后从
merge
中删除
后缀
参数,就完成了:

def agg_df(dfList):
    temp=reduce(lambda left, right: pd.merge(left, right, 
                                             left_index=True, right_index=True, 
                                             how='outer'), dfList)
    return temp

df = agg_df(dfs.values())

合并是pyspark没有后缀选项,但您可以使用考拉来实现

    import databricks.koalas as ks

    left_kdf = ks.DataFrame(hist_sls_cy)
    right_kdf = ks.DataFrame(hist_sls_ly)
    kdf_cmbnd = left_kdf.merge(right_kdf,on=['x1','x2'],how='left',suffixes=('','_last'))

合并是pyspark没有后缀选项,但您可以使用考拉来实现

    import databricks.koalas as ks

    left_kdf = ks.DataFrame(hist_sls_cy)
    right_kdf = ks.DataFrame(hist_sls_ly)
    kdf_cmbnd = left_kdf.merge(right_kdf,on=['x1','x2'],how='left',suffixes=('','_last'))