Groovy neo4j批导入

Groovy neo4j批导入,groovy,neo4j,Groovy,Neo4j,我正在使用此脚本将csv文件导入neo4j。该文件相当大:大约6000万行。我为属性分配了30GB内存,为节点分配了30GB内存,为其余部分分配了30GB内存。然而,进口商被困在4900万条生产线。这是内存问题吗 输出如下所示 在x秒内处理48800000行 在y秒内处理48900000行 然后它停止处理并且不移动 你错过了恋爱吗这些是最关键的 我忘记了原始示例中的一个,即 neostore.relgroupstore.db=10MB 每个节点15字节 每个关系38字节 每4个属性42字节 你有

我正在使用此脚本将csv文件导入neo4j。该文件相当大:大约6000万行。我为属性分配了30GB内存,为节点分配了30GB内存,为其余部分分配了30GB内存。然而,进口商被困在4900万条生产线。这是内存问题吗

输出如下所示

在x秒内处理48800000行 在y秒内处理48900000行
然后它停止处理并且不移动

你错过了恋爱吗这些是最关键的 我忘记了原始示例中的一个,即

neostore.relgroupstore.db=10MB

每个节点15字节 每个关系38字节 每4个属性42字节

你有128GB的内存吗?为了适应内存映射

你在用什么操作系统

最后,它会停止相当长的一段时间来创建索引和约束,可能就是这样


您可以在此之前添加输出。

什么是“卡住”?错误,异常,什么都没有发生,100%cpu,交换,…?什么都没有发生。我现在会更新这个问题,你的数据库服务器在做所有的工作吗?刷新所有批次信息还是把它弄得一团糟?我不明白你的问题。我不是一个数据库的人。我正在使用github上提供的代码,并根据属性和节点索引方面的需要对其进行了调整。还有什么我应该做的吗?我在Linux上。我现在的机器有超过100GB的内存,是的。在读了你的帖子后,我确实添加了关系。这次索引4500万个节点花费了大约20分钟。