Linux 处理数百万文件的ext性能

Linux 处理数百万文件的ext性能,linux,filesystems,ext4,Linux,Filesystems,Ext4,我有一个10级树结构的文件系统,有4000万个文件(总共大约500 GB)。我的问题是备份。增量备份(bacula)需要9小时(约10 GB)的时间,但性能非常低。有些目录有50k个文件,其他有10k个文件。HDs是硬件RAID,我在上面有默认的Ubuntu LV。我认为这里的瓶颈是文件的数量(庞大的索引节点)。我正在努力提高性能(在同一个FS上以200k/s的读取速度进行完整备份需要4天以上的时间)。 -您认为将FS划分为几个较小的FS会有帮助吗?我可以有1000个更小的FS。。。 -您认为从

我有一个10级树结构的文件系统,有4000万个文件(总共大约500 GB)。我的问题是备份。增量备份(bacula)需要9小时(约10 GB)的时间,但性能非常低。有些目录有50k个文件,其他有10k个文件。HDs是硬件RAID,我在上面有默认的Ubuntu LV。我认为这里的瓶颈是文件的数量(庞大的索引节点)。我正在努力提高性能(在同一个FS上以200k/s的读取速度进行完整备份需要4天以上的时间)。 -您认为将FS划分为几个较小的FS会有帮助吗?我可以有1000个更小的FS。。。 -您认为从HD移动到SSD会有所帮助吗? -有什么建议吗


谢谢

移动到SSD将提高备份速度。SSD很快就会疲劳,您需要备份…
您不能组织一些您知道在哪里查找已更改/新文件的内容吗? 这样,您需要增量备份这些文件夹

你的文件需要在线吗?你能有三层深的古树焦油档案吗

我想一个find-mtime-1也需要几个小时

我希望备份不是使用与de-tree结构相同的分区 (在/tmp下的一切都是一个非常糟糕的计划),bavkup可能创建的临时文件应该位于不同的分区上


新文件来自哪里?当您控制的进程更改了所有文件时,您的进程可以生成一个日志文件,其中包含已更改的文件列表。

Hola Walter。。。通过FS爬行的每个文件系统操作。。。我说的是重新组织结构并归档不需要的文件夹……今天我统计了至少400万个用户不需要在线的文件。遗憾的是,备份将卷存储在/backup下,mysql数据库也在同一个巨大的FS上。移动这两个东西可以改善情况。我对生成的文件没有任何直接控制权,但通常每个文件夹都有10k到50k的文件。。。。我还认为任何SSD都会很快磨损……删除这些4M文件是一个开始。我不知道访问它们的要求,你能使用
find/yourpath-atime+30-typef-execrm{}
或自动将它们放入tar并提取请求的文件?保存此怪物的服务器只有16G RAM…收集平板数据我发现ext4 inode缓存在达到5GB时已满。我在收到的一台新服务器(96 GB的RAM)上运行了一些测试,我发现我需要45 GB来缓存FS元数据……因此我将把RAM升级到64 GB或96 GB,以检查性能是否有重大变化……我希望附加内存能有所帮助。删除过时数据在任何情况下都会有所帮助,请尝试找出如何在不丢失服务的情况下减少文件数量。仍在与beast搏斗。。。。升级RAID fw并添加96 GB RAM后,读取性能没有改变…仍在爬网。。。我们的Bacula日志:====FD文件写入:7034 SD文件写入:7034 FD字节写入:537896121(537.8 MB)SD字节写入:539479171(539.4 MB)速率:20.7 KB/s====Im开始运行ext4不是这种情况下的最佳FS。。。。我将测试xfs或reiserfs并比较。。。。