Python 合并具有指定后缀的多个数据帧
我实现了合并引用的多个数据帧。Python 合并具有指定后缀的多个数据帧,python,pandas,Python,Pandas,我实现了合并引用的多个数据帧。 我要做的是为每个数据帧指定后缀,如下所示。 但是,我得到了ValueError:太多的值无法解压缩(预期为2) 我理解为后缀指定长度超过2的元组会导致此问题。但我不知道如何编写代码来解决此问题。 谁能告诉我怎么写 def agg_df(dfList, suffix): temp=reduce(lambda left, right: pd.merge(left, right, left_index=True, right_index=True,
我要做的是为每个数据帧指定后缀,如下所示。
但是,我得到了
ValueError:太多的值无法解压缩(预期为2)
我理解为后缀指定长度超过2的元组会导致此问题。但我不知道如何编写代码来解决此问题。
谁能告诉我怎么写
def agg_df(dfList, suffix):
temp=reduce(lambda left, right: pd.merge(left, right, left_index=True, right_index=True,
how='outer', suffixes=suffix), dfList)
return temp
df=agg_df([df_cool, df_light, df_sp, df_hvac], ('_chiller', '_light', '_sp', '_hvac'))
您可以在
合并
之前添加后缀,包括:
然后从merge
中删除后缀
参数,就完成了:
def agg_df(dfList):
temp=reduce(lambda left, right: pd.merge(left, right,
left_index=True, right_index=True,
how='outer'), dfList)
return temp
df = agg_df(dfs.values())
您可以在
合并
之前添加后缀,包括:
然后从merge
中删除后缀
参数,就完成了:
def agg_df(dfList):
temp=reduce(lambda left, right: pd.merge(left, right,
left_index=True, right_index=True,
how='outer'), dfList)
return temp
df = agg_df(dfs.values())
合并是pyspark没有后缀选项,但您可以使用考拉来实现
import databricks.koalas as ks
left_kdf = ks.DataFrame(hist_sls_cy)
right_kdf = ks.DataFrame(hist_sls_ly)
kdf_cmbnd = left_kdf.merge(right_kdf,on=['x1','x2'],how='left',suffixes=('','_last'))
合并是pyspark没有后缀选项,但您可以使用考拉来实现
import databricks.koalas as ks
left_kdf = ks.DataFrame(hist_sls_cy)
right_kdf = ks.DataFrame(hist_sls_ly)
kdf_cmbnd = left_kdf.merge(right_kdf,on=['x1','x2'],how='left',suffixes=('','_last'))