Python 逐字节读取文件而不超过内存限制

Python 逐字节读取文件而不超过内存限制,python,file,byte,Python,File,Byte,我想用Python阅读一个非常大的文件(100GB)。如果我只使用 with open("test.test", 'rb') as f: data = f.read() 它将生成一个内存错误。我想出了一个办法,一个字节一个字节地读取那个文件。我试过了 with open("test.txt", 'rb') as f: data = f.read(1) 一切都很完美;只读取了一个字节。问题在于读取下一个字节。如果我用2替换参数1,则该参

我想用Python阅读一个非常大的文件(100GB)。如果我只使用

with open("test.test", 'rb') as f:
     data = f.read()
它将生成一个
内存错误
。我想出了一个办法,一个字节一个字节地读取那个文件。我试过了

with open("test.txt", 'rb') as f:
    data = f.read(1)
一切都很完美;只读取了一个字节。问题在于读取下一个字节。如果我用
2
替换参数
1
,则该参数的输出将是2字节,而不是秒字节。我可以使用split函数,但在该特定函数中,我不需要超过内存限制。有没有办法逐字节读取文件?或者有什么解决办法吗?

您可以使用。只要根据需要增加偏移量。

如果再次调用
read(1)
,您将获得下一个字节。