Python Pandas Dataframe:如何基于索引子集删除_duplicates()?

Python Pandas Dataframe:如何基于索引子集删除_duplicates()?,python,python-3.x,pandas,dataframe,Python,Python 3.x,Pandas,Dataframe,不知是否有人能在这方面帮助我: 有一个相当大数量的列(超过50列)的df。我想基于子集(第2列到第50列)删除重复项 试图使用DF.DROPIPUPDATIONS(子集= [ COL1,COL2,…] ],但想知道是否有一种方法来传递列索引,所以我不必实际写出所有的列标题来考虑删除,而是可以沿着DF.DROPYPARTIVATIONS(子集=(2:))< /P>行一些事情。 感谢您的支持,您可以对df列进行切片,如: df.drop_duplicates(subset = df.columns[

不知是否有人能在这方面帮助我:

有一个相当大数量的列(超过50列)的df。我想基于子集(第2列到第50列)删除重复项

试图使用DF.DROPIPUPDATIONS(子集= [ COL1,COL2,…] ],但想知道是否有一种方法来传递列索引,所以我不必实际写出所有的列标题来考虑删除,而是可以沿着DF.DROPYPARTIVATIONS(子集=(2:))< /P>行一些事情。


感谢您的支持,您可以对df列进行切片,如:

df.drop_duplicates(subset = df.columns[2:])
或:


非常感谢您的迅速回复。这就是我所希望/寻找的。干杯
df.drop_duplicates(subset = df.columns[2:].tolist())