Python 什么为大型数据集提供了更好的性能?嵌套字典还是对象字典?
当我从多个数据库表获取数据时,我发现自己在重复这种模式:Python 什么为大型数据集提供了更好的性能?嵌套字典还是对象字典?,python,dictionary,python-datamodel,Python,Dictionary,Python Datamodel,当我从多个数据库表获取数据时,我发现自己在重复这种模式: records = {'p_key': { "record": r, "A": list(), "B": list(), "C" : list() } for r in db_records} 我经常不得不以这种方式对数据进行分组,因为我无法跨数据库进行联接,或者可能存在多个查询比多个联接更快的情况 但就性能而言,我不确定这样嵌套字典是否会有很多开销,也不确定创建一个具有这些属性的对象是否会更好地成为记录字典中的值。所谓性能,我指的是使
records = {'p_key': { "record": r, "A": list(), "B": list(), "C" : list() } for r in db_records}
我经常不得不以这种方式对数据进行分组,因为我无法跨数据库进行联接,或者可能存在多个查询比多个联接更快的情况
但就性能而言,我不确定这样嵌套字典是否会有很多开销,也不确定创建一个具有这些属性的对象是否会更好地成为记录字典中的值。所谓性能,我指的是使用大量嵌套字典和对象字典时在空间和时间上的总成本。字典和常规类对象之间的性能基本上没有区别,因为内部对象使用字典来处理其属性
但是,您应该考虑使用<代码> 是关于它是什么及其性能的详细说明
另一种选择是使用大熊猫库来处理大数据集。
如果你正在加入,你可能应该考虑使用大熊猫。我看不出对象如何比DIST更快地播放,因为(1)每件事物基本上都是一个对象,(2)几乎每个对象都有一个<代码>C在嵌套的dict中?每个dict都是对象的dict。口述是一个对象。在Python中,一切都是一个对象。你能说得更具体些吗?