Python 使用SOLR后端,通过django haystack实现物理内存增长

Python 使用SOLR后端,通过django haystack实现物理内存增长,python,django,solr,django-haystack,Python,Django,Solr,Django Haystack,我有一个django webapp,有两个模型,每个模型在一个数据库中大约有25万行。昨天想要实现搜索,所以安装了haystack和SOLR后端。效果很好 在设置了SOLR(没有任何索引的SOLR的内存使用率是100MBish)并添加了3K索引作为测试之后,我忍不住注意到SOLR(start.jar)的RAM消耗达到了200MB。3k机型的100MB跳转 我的设置有问题吗?我遵循了默认的haystack solr安装说明、schema.xml等。如果有必要的话,模型本身并没有那么大 只是想澄清一

我有一个django webapp,有两个模型,每个模型在一个数据库中大约有25万行。昨天想要实现搜索,所以安装了haystack和SOLR后端。效果很好

在设置了SOLR(没有任何索引的SOLR的内存使用率是100MBish)并添加了3K索引作为测试之后,我忍不住注意到SOLR(start.jar)的RAM消耗达到了200MB。3k机型的100MB跳转

我的设置有问题吗?我遵循了默认的haystack solr安装说明、schema.xml等。如果有必要的话,模型本身并没有那么大

只是想澄清一下,一切都很好,只是记忆有点高。是不是前几千个指数会导致一个大的RAM峰值,而接下来的几十万个指数不会?因为如果我计划在将来索引500k,那么3k行的100MB的索引将非常高

对不起,如果我的问题有点模糊,我是个初学者,谢谢