Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/node.js/39.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js docker与mode和mongo一起使用大量磁盘空间_Node.js_Mongodb_Docker - Fatal编程技术网

Node.js docker与mode和mongo一起使用大量磁盘空间

Node.js docker与mode和mongo一起使用大量磁盘空间,node.js,mongodb,docker,Node.js,Mongodb,Docker,我有一个使用平均堆栈的docker容器设置,我的磁盘使用量增长非常快。我在digital ocean上安装了一个30gb的droplet,磁盘使用率从3天前的67%提高到93%,此后我再也没有安装过任何东西,只加载了几千条数据库记录 我的数据库中可能有20k或30k个文档,但它们不是很大,但我的磁盘使用率每天增加约5%。在此之前,postgres中有一个存储相同数据的大得多的数据集,我从未遇到过存储空间问题,在部署mongo应用程序后被迫增加存储空间之前,我的存储空间只有20g 我删除了大部分旧

我有一个使用平均堆栈的docker容器设置,我的磁盘使用量增长非常快。我在digital ocean上安装了一个30gb的droplet,磁盘使用率从3天前的67%提高到93%,此后我再也没有安装过任何东西,只加载了几千条数据库记录

我的数据库中可能有20k或30k个文档,但它们不是很大,但我的磁盘使用率每天增加约5%。在此之前,postgres中有一个存储相同数据的大得多的数据集,我从未遇到过存储空间问题,在部署mongo应用程序后被迫增加存储空间之前,我的存储空间只有20g

我删除了大部分旧图像和未运行的容器。 运行
docker ps-s
会产生以下结果:

我的主web容器显示8.456KB(虚拟817.4MB)

My mongo容器显示0 B(虚拟314.4 MB)

从具有
docker图像的图像中调整文件大小

虚拟大小
848MB
643MB
743.6MB
317MB
636.7 MB

文件系统与
df一起使用:
已使用的文件系统1K块可用使用%已安装在
/dev/vda1 30830588 26957740 2283712 93%/

Docker copmose命令启动mongo:
命令:mongod--dbpath/data/db--smallfiles--quiet--logpath=/dev/null

我跑:
sudo du-h/| grep-p'^[0-9\.]+G'

2.1G/var/lib/docker/aufs/diff
1.3G/var/lib/docker/aufs/mnt
3.4G/var/lib/docker/aufs
16G/var/lib/docker/containers/9fab4a607a0155bd61b2b73…5399e
16G/var/lib/docker/containers
20G/var/lib/docker
21G/var/lib
21G/var


mongo真的是这么大的数据猪,还是我(希望)遗漏了什么?

我发现了我的问题。我有一个来自docker容器的20gb日志文件


我想我会在我解决问题的文档中探索限制这种情况的方法。我有一个来自docker容器的20gb日志文件

我想我将探索各种选项,以限制基于文档的无重复性