Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/ruby-on-rails-3/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/user-interface/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ruby on rails Rails 3进程的内存占用应随时间增长多少?_Ruby On Rails_Ruby On Rails 3_Memory Management_Passenger - Fatal编程技术网

Ruby on rails Rails 3进程的内存占用应随时间增长多少?

Ruby on rails Rails 3进程的内存占用应随时间增长多少?,ruby-on-rails,ruby-on-rails-3,memory-management,passenger,Ruby On Rails,Ruby On Rails 3,Memory Management,Passenger,环境:Rails 3.0.4,乘客/Nginx 当我查看生产切片上的“top”输出时,一个新实例大约从110MB开始,并随着时间的推移(几天)缓慢增长到200MB左右。在缓存各种对象时,是否会出现这种情况?或者更可能是某个地方的内存泄漏 我试图消除所有常见的问题:将任何“find.all”替换为“find_each”,只在关联中加载必要的列等 我最想知道的是,这是否是人们在自己的环境中看到的典型情况,即内存占用率翻了两倍。这样的持续增长听起来像是内存泄漏 一个简单的解决方法是使用MaxReque

环境:Rails 3.0.4,乘客/Nginx

当我查看生产切片上的“top”输出时,一个新实例大约从110MB开始,并随着时间的推移(几天)缓慢增长到200MB左右。在缓存各种对象时,是否会出现这种情况?或者更可能是某个地方的内存泄漏

我试图消除所有常见的问题:将任何“find.all”替换为“find_each”,只在关联中加载必要的列等


我最想知道的是,这是否是人们在自己的环境中看到的典型情况,即内存占用率翻了两倍。

这样的持续增长听起来像是内存泄漏


一个简单的解决方法是使用MaxRequests指令,每n个请求滚动一次乘客工作人员。

这样的持续增长听起来像是内存泄漏

一个简单的解决方法是使用MaxRequests指令每n个请求滚动一次乘客工作人员。

有趣的帖子:有趣的帖子: