我的理解是 os.urandom(size) 输出给定“大小”的随机字节字符串,但是:
import os
import sys
print(sys.getsizeof(os.urandom(42)))
>>>
75
为什么这不是 42?
还有一个相关问题:
import base64
import binascii
print(sys.getsizeof(base64.b64encode(os.urandom(42))))
print(sys.getsizeof(binascii.hexlify(os.urandom(42))))
>>>
89
117
为什么这些差异如此之大?哪种编码是存储字节字符串(例如 os.urandom 给出的字节串)最有效的内存方式?
编辑:说这个问题与 What is the difference between len() and sys.getsizeof() methods in python? 重复似乎有些牵强。我的问题不是关于 len() 和 getsizeof() 之间的区别。我对 Python 对象一般使用的内存感到困惑,这个问题的答案已经为我澄清了这一点。
最佳答案
Python 字节字符串对象不仅仅是组成它们的字符。它们是成熟的对象。因此,它们需要更多的空间来容纳对象的组件,例如类型指针(需要识别字节串是什么类型的对象)和长度(需要提高效率,因为 Python 字节串可以包含空字节)。
最简单的对象,一个对象
实例,需要空间:
>>> sys.getsizeof(object())
16
您问题的第二部分只是因为 b64encode()
和 hexlify()
生成的字符串具有不同的长度;后者多了 28 个字符,这与 sys.getsizeof() 报告的值之间的差异毫不奇怪。
>>> s1 = base64.b64encode(os.urandom(42))
>>> s1
b'CtlMjDM9q7zp+pGogQci8gr0igJsyZVjSP4oWmMj2A8diawJctV/8sTa'
>>> s2 = binascii.hexlify(os.urandom(42))
>>> s2
b'c82d35f717507d6f5ffc5eda1ee1bfd50a62689c08ba12055a5c39f95b93292ddf4544751fbc79564345'
>>> len(s2) - len(s1)
28
>>> sys.getsizeof(s2) - sys.getsizeof(s1)
28
除非您使用某种形式的压缩,否则没有任何编码比您已有的二进制字符串更有效,在这种情况下尤其如此,因为数据是随机的本质上是不可压缩的。
关于python - 这个字节串实际占用了多少内存?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44360567/