Python 这个字节字符串实际占用多少内存?
我的理解是os.Uradom(size)输出给定“size”的随机字节串,但是:Python 这个字节字符串实际占用多少内存?,python,python-3.x,memory,encoding,base64,Python,Python 3.x,Memory,Encoding,Base64,我的理解是os.Uradom(size)输出给定“size”的随机字节串,但是: import os import sys print(sys.getsizeof(os.urandom(42))) >>> 75 为什么这不是42 以及一个相关问题: import base64 import binascii print(sys.getsizeof(base64.b64encode(os.urandom(42)))) print(sys.getsizeof(binasc
import os
import sys
print(sys.getsizeof(os.urandom(42)))
>>>
75
为什么这不是42
以及一个相关问题:
import base64
import binascii
print(sys.getsizeof(base64.b64encode(os.urandom(42))))
print(sys.getsizeof(binascii.hexlify(os.urandom(42))))
>>>
89
117
为什么它们如此不同?哪种编码是存储诸如os.uradom给定的字节字符串的最有效的内存方式
编辑:说这个问题与我的问题是重复的似乎有点牵强,我的问题不是关于len()和getsizeof()之间的区别。我对Python对象通常使用的内存感到困惑,这个问题的答案已经为我澄清了。Python字节字符串对象不仅仅是组成它们的字符。它们是完全成熟的对象。因此,它们需要更多的空间来容纳对象的组件,例如类型指针(需要识别bytestring甚至是什么类型的对象)和长度(需要效率,因为Python bytestring可以包含空字节) 最简单的对象,
对象
实例需要空间:
>>> sys.getsizeof(object())
16
问题的第二部分很简单,因为b64encode()
和hexlify()
生成的字符串长度不同;后者长28个字符,这与sys.getsizeof()
报告的值不同,这并不奇怪
除非使用某种形式的压缩,否则没有任何编码比已有的二进制字符串更有效,在这种情况下尤其如此,因为数据是随机的,本质上是不可压缩的。在第二个示例中,生成的字符串长度不同(base64与hex),因此,它们是不平等的。通常,通过获取
getsizeof()
的结果并减去每个对象的len()
,您可以计算出每个对象使用了多少内存,因此在您的示例中,每个对象都有33个额外的字节添加到它们上。
>>> s1 = base64.b64encode(os.urandom(42))
>>> s1
b'CtlMjDM9q7zp+pGogQci8gr0igJsyZVjSP4oWmMj2A8diawJctV/8sTa'
>>> s2 = binascii.hexlify(os.urandom(42))
>>> s2
b'c82d35f717507d6f5ffc5eda1ee1bfd50a62689c08ba12055a5c39f95b93292ddf4544751fbc79564345'
>>> len(s2) - len(s1)
28
>>> sys.getsizeof(s2) - sys.getsizeof(s1)
28