Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/actionscript-3/7.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux Can';统计数据';由于实际上刷新了缓存,因此转储大量文件会导致性能影响吗?_Linux_Buffer_Stat - Fatal编程技术网

Linux Can';统计数据';由于实际上刷新了缓存,因此转储大量文件会导致性能影响吗?

Linux Can';统计数据';由于实际上刷新了缓存,因此转储大量文件会导致性能影响吗?,linux,buffer,stat,Linux,Buffer,Stat,对每个文件重复的顺序stating是否会导致缓冲区缓存或slab对象逐出旧条目和/或增长slab,从而导致明显的性能差异(磁盘I/O除外)?例如,缓冲区缓存或Linux的slab处于加载对象的状态,这些对象大部分处于活动状态。”统计磁盘上的文件(比如说所有文件)将把inode和dentry对象带到缓存中。因为它们的数量很大,我认为它们可能会逐出旧的条目并填满缓存。一旦完成此操作,当相应的应用程序访问旧条目时,必须从磁盘重新加载被逐出的旧条目 我的问题是,这种stating(例如重复du使用大量文

对每个文件重复的顺序
stat
ing是否会导致缓冲区缓存或slab对象逐出旧条目和/或增长slab,从而导致明显的性能差异(磁盘I/O除外)?例如,缓冲区缓存或Linux的slab处于加载对象的状态,这些对象大部分处于活动状态。”统计磁盘上的文件(比如说所有文件)将把inode和dentry对象带到缓存中。因为它们的数量很大,我认为它们可能会逐出旧的条目并填满缓存。一旦完成此操作,当相应的应用程序访问旧条目时,必须从磁盘重新加载被逐出的旧条目


我的问题是,这种
stat
ing(例如重复
du
使用大量文件)是否会对系统产生显著影响?这取决于缓存的大小,我知道,我的主要目标是了解对大量文件重复“du”是否会显著影响系统的性能。还指出是否可以看到任何其他间接影响。

IMHO,这取决于缓存替换策略。如果是FIFO,则是-
du
ing将用新的条目替换旧条目。但如果是LRU,这更常见,那么,我认为,这不太可能发生-我(想)相信,文件上的i/O对于LRU时间/引用计数的优先级高于
stat
ing。或者说,缓存是完全分开的。无论如何,强烈建议您阅读一些深思熟虑的内核源代码