Linux Can';统计数据';由于实际上刷新了缓存,因此转储大量文件会导致性能影响吗?
对每个文件重复的顺序Linux Can';统计数据';由于实际上刷新了缓存,因此转储大量文件会导致性能影响吗?,linux,buffer,stat,Linux,Buffer,Stat,对每个文件重复的顺序stating是否会导致缓冲区缓存或slab对象逐出旧条目和/或增长slab,从而导致明显的性能差异(磁盘I/O除外)?例如,缓冲区缓存或Linux的slab处于加载对象的状态,这些对象大部分处于活动状态。”统计磁盘上的文件(比如说所有文件)将把inode和dentry对象带到缓存中。因为它们的数量很大,我认为它们可能会逐出旧的条目并填满缓存。一旦完成此操作,当相应的应用程序访问旧条目时,必须从磁盘重新加载被逐出的旧条目 我的问题是,这种stating(例如重复du使用大量文
stat
ing是否会导致缓冲区缓存或slab对象逐出旧条目和/或增长slab,从而导致明显的性能差异(磁盘I/O除外)?例如,缓冲区缓存或Linux的slab处于加载对象的状态,这些对象大部分处于活动状态。”统计磁盘上的文件(比如说所有文件)将把inode和dentry对象带到缓存中。因为它们的数量很大,我认为它们可能会逐出旧的条目并填满缓存。一旦完成此操作,当相应的应用程序访问旧条目时,必须从磁盘重新加载被逐出的旧条目
我的问题是,这种
stat
ing(例如重复du
使用大量文件)是否会对系统产生显著影响?这取决于缓存的大小,我知道,我的主要目标是了解对大量文件重复“du”是否会显著影响系统的性能。还指出是否可以看到任何其他间接影响。IMHO,这取决于缓存替换策略。如果是FIFO,则是-du
ing将用新的条目替换旧条目。但如果是LRU,这更常见,那么,我认为,这不太可能发生-我(想)相信,文件上的i/O对于LRU时间/引用计数的优先级高于stat
ing。或者说,缓存是完全分开的。无论如何,强烈建议您阅读一些深思熟虑的内核源代码