Python 如何确定文件I/O的最大读取缓冲区大小
我试图为Stata文件类型优化一个二进制读取器,并且对文件中的每个记录延迟评估当前实现。随着文件大小的增加,读卡器的速度会很快降低 当我问最初写这篇文章的人为什么要用发电机时,他说要小心记忆。我得到的建议是一次读取并处理文件中较大的数据块,我想知道如何判断在不进入虚拟内存的情况下可以读取的最大数据块是什么 一些旁注Python 如何确定文件I/O的最大读取缓冲区大小,python,optimization,io,cython,Python,Optimization,Io,Cython,我试图为Stata文件类型优化一个二进制读取器,并且对文件中的每个记录延迟评估当前实现。随着文件大小的增加,读卡器的速度会很快降低 当我问最初写这篇文章的人为什么要用发电机时,他说要小心记忆。我得到的建议是一次读取并处理文件中较大的数据块,我想知道如何判断在不进入虚拟内存的情况下可以读取的最大数据块是什么 一些旁注 为什么读取和处理大数据块要比处理小数据块快。被多次调用的开销加起来这么快吗 我很想看看我是否可以通过在赛昂试一试来获得更大的速度增益。有没有人知道我可以看一看带有二进制文件读取器的
- 为什么读取和处理大数据块要比处理小数据块快。被多次调用的开销加起来这么快吗
- 我很想看看我是否可以通过在赛昂试一试来获得更大的速度增益。有没有人知道我可以看一看带有二进制文件读取器的模块(除了scipy.stats matlab文件读取器)李>
- 我想知道如何判断在不进入虚拟内存的情况下可以读取的最大数据块是什么
(或chunk\u size
,或其他任何参数),以确定一次读取多少条记录n\u records
- 为什么读取和处理大数据块要比处理小数据块快
- 有谁知道有带二进制文件读取器的模块吗?我可以看一下