Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/neo4j/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在Neo4j中导入包含300万数据的CSV文件时,有没有办法快速创建300万个比率?_Csv_Neo4j_Cypher 3.1 - Fatal编程技术网

在Neo4j中导入包含300万数据的CSV文件时,有没有办法快速创建300万个比率?

在Neo4j中导入包含300万数据的CSV文件时,有没有办法快速创建300万个比率?,csv,neo4j,cypher-3.1,Csv,Neo4j,Cypher 3.1,以下是我用来从.csv文件加载的查询: 使用定期提交加载CSV,其中头来自“file:///products.csv“作为行创建(:Product{id:row.idProduct,name:row.name,description:row.description,price:row.price,shipping\u price:row.shippingPrice}) 在这次咨询中,我花了几天时间建立关系: USING PERIODIC COMMIT LOAD CSV WITH HEADERS

以下是我用来从
.csv
文件加载的查询:

使用定期提交加载CSV,其中头来自“file:///products.csv“作为行创建(:Product{id:row.idProduct,name:row.name,description:row.description,price:row.price,shipping\u price:row.shippingPrice})

在这次咨询中,我花了几天时间建立关系:

USING PERIODIC COMMIT
LOAD CSV WITH HEADERS FROM "file:///products.csv" AS row
MATCH (Product:Product {id: row.idProduct})
MATCH (category:Category {id: row.idProductCategory})
MERGE (category)-[:OF_CATEGORY]->(Product);

是否有任何方法可以为数百万个节点创建或导入关系?

是否对:Product(id)和:Category(id)有索引或唯一约束?您需要这些来提高开始和结束节点的查找速度。好的,添加索引:Product(id)和:Category(id),看看我得到了什么结果,谢谢您的帮助。我还添加了与此queryMATCH(prodcategory:Category{IDIDIDrestaurant:prodcategory.idRestaurant})匹配(resto:Subscriber{id:resto.id})的关系其中prodcategory.idRestaurant=resto.id合并(prodcategory)-[:定义者]->(resto);