Python 使用py2neo时,Java内存不断增加
我正在使用python中的web crawler(Scrapy)不断下载数据(单词),并通过py2neo将单词作为节点实时保存到neo4j中。 我的代码如下所示:Python 使用py2neo时,Java内存不断增加,python,neo4j,heap-memory,py2neo,Python,Neo4j,Heap Memory,Py2neo,我正在使用python中的web crawler(Scrapy)不断下载数据(单词),并通过py2neo将单词作为节点实时保存到neo4j中。 我的代码如下所示: graph = Graph("http://localhost:7474/db/data/") def create(graph,word): node=graph.merge_one("WORD","name",word) return node 我的网络蜘蛛每次得到一个单词都会调用这个create函数。然而,当
graph = Graph("http://localhost:7474/db/data/")
def create(graph,word):
node=graph.merge_one("WORD","name",word)
return node
我的网络蜘蛛每次得到一个单词都会调用这个create函数。然而,当我的蜘蛛在网页上爬行时,我发现Neo4j的Jave内存不断增加。因为我的蜘蛛会跑几个星期,我担心有一天会失去记忆。我只想每次创建一个节点,以后就不使用这个节点了,为什么Java内存一直在增加?我认为在Java中创建的节点对象始终保持活动状态,但是如何释放这些不必要的对象呢?那么有什么方法可以保持Java内存不增加呢
提前感谢对此表示抱歉
我刚刚发现,当Java内存达到一定值时,它会自动减少,然后再次增加。对不起,我不熟悉neo4j和Java