Python 熊猫数据帧时间序列删除重复项
我正试图通过合并2个CSV文件来更新温度时间序列,这些文件有时可能有重复的行 我曾试图实现Python 熊猫数据帧时间序列删除重复项,python,pandas,dataframe,time-series,Python,Pandas,Dataframe,Time Series,我正试图通过合并2个CSV文件来更新温度时间序列,这些文件有时可能有重复的行 我曾试图实现删除重复项,但它对我不起作用 下面是我尝试做的一个例子: import pandas as pd import numpy as np from pandas import DataFrame, Series dfA = DataFrame({'date' : Series(['1/1/10','1/2/10','1/3/10','1/4/10'], index=[0,1,2,3]), 'a'
删除重复项
,但它对我不起作用
下面是我尝试做的一个例子:
import pandas as pd
import numpy as np
from pandas import DataFrame, Series
dfA = DataFrame({'date' : Series(['1/1/10','1/2/10','1/3/10','1/4/10'], index=[0,1,2,3]),
'a' : Series([60,57,56,50], index=[0,1,2,3]),
'b' : Series([80,73,76,56], index=[0,1,2,3])})
print("dfA")
print(dfA)
dfB = DataFrame({'date' : Series(['1/3/10','1/4/10','1/5/10','1/6/10'], index=[0,1,2,3]),
'a' : Series([56,50,59,75], index=[0,1,2,3]),
'b' : Series([76,56,73,89], index=[0,1,2,3])})
print("dfB")
print(dfB)
dfC = dfA.append(dfB)
print(dfC.duplicated())
dfC.drop_duplicates()
print("dfC")
print(dfC)
这是输出:
dfA
a b date
0 60 80 1/1/10
1 57 73 1/2/10
2 56 76 1/3/10
3 50 56 1/4/10
dfB
a b date
0 56 76 1/3/10
1 50 56 1/4/10
2 59 73 1/5/10
3 75 89 1/6/10
0 False
1 False
2 False
3 False
0 True
1 True
2 False
3 False
dtype: bool
dfC
a b date
0 60 80 1/1/10
1 57 73 1/2/10
2 56 76 1/3/10
3 50 56 1/4/10
0 56 76 1/3/10
1 50 56 1/4/10
2 59 73 1/5/10
3 75 89 1/6/10
如何使用重叠数据更新时间序列而不存在重复项?行
dfC.drop\u duplicates()
实际上不会更改绑定到dfC
的数据帧(它只返回一个没有重复行的副本)
您可以通过传入inplace
关键字参数,指定数据帧dfC
在原地修改
dfC.drop_duplicates(inplace=True)
或者像这样将消除重复数据帧的视图重新绑定到名称dfC
dfC = dfC.drop_duplicates()
行
dfC.drop_duplicates()
实际上不会更改绑定到dfC
的数据帧(它只返回一个没有重复行的数据帧副本)
您可以通过传入inplace
关键字参数,指定数据帧dfC
在原地修改
dfC.drop_duplicates(inplace=True)
或者像这样将消除重复数据帧的视图重新绑定到名称dfC
dfC = dfC.drop_duplicates()
嘿,比尔:看看这个,不要说“它对我不起作用”,描述一下它为什么不起作用会很有帮助。你会得到异常、糟糕的结果,或者根本没有回应吗?嘿,比尔:看看这个,不要说“它对我不起作用”,描述一下它为什么不起作用会很有帮助。你会得到异常,糟糕的结果,或者根本没有响应吗?当然。这么简单。现在,这将从组合的CSV文件中删除重复的行。非常感谢你。Bill@BillG. 很高兴这有帮助!顺便说一下,如果答案解决了问题,你可以告诉社区。当然。这么简单。现在,这将从组合的CSV文件中删除重复的行。非常感谢你。Bill@BillG. 很高兴这有帮助!顺便说一下,如果答案解决了问题,你可以告诉社区。