Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/performance/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/three.js/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance Titan删除多个顶点的性能较差 在删除多个顶点时提高性能?_Performance_Bulk_Titan - Fatal编程技术网

Performance Titan删除多个顶点的性能较差 在删除多个顶点时提高性能?

Performance Titan删除多个顶点的性能较差 在删除多个顶点时提高性能?,performance,bulk,titan,Performance,Bulk,Titan,我有一个在泰坦使用雷克斯特和卡桑德拉,我想能够删除一个潜在的大部分的图形 我想删除用户拥有的所有不在提供的ID列表中的内容,并返回他们在图中实际仍然拥有的ID列表。我尝试过这两种方法,这两种方法都需要很长时间。我正在测试最坏的情况,其中要保存的ID列表为空[] 有没有办法通过使用某种批量操作、关闭某些检查、执行异步查询或应用其他策略来提高性能 我已经启用了storage.batch-loading,我认为这可能会提高性能。我估计查询时间大约为150秒,但是没有提交任何内容,所以我认为它超时了 图

我有一个在泰坦使用雷克斯特和卡桑德拉,我想能够删除一个潜在的大部分的图形

我想删除用户拥有的所有不在提供的ID列表中的内容,并返回他们在图中实际仍然拥有的ID列表。我尝试过这两种方法,这两种方法都需要很长时间。我正在测试最坏的情况,其中要保存的ID列表为空[]

有没有办法通过使用某种批量操作、关闭某些检查、执行异步查询或应用其他策略来提高性能

我已经启用了storage.batch-loading,我认为这可能会提高性能。我估计查询时间大约为150秒,但是没有提交任何内容,所以我认为它超时了

图表的布局为:

用户拥有->一个事物包含->一个描述可以被多个事物共享

编号:

User -owns-> ~= 200K "A Thing"s. (g.v(user_id).outE('owns').count() ~= 200K)
A Thing -contains-> ~= 100 "A Description"s (g.v(a_thing_id).outE('contains').count() ~= 100)
A Description <-contains- ~= 100 "A Thing" (g.v(a_description_id).inE('contains').count ~= 100)

那么,一个用户可以拥有大约20万件东西?在这种情况下,上述事务肯定会超时,因为删除20万件事情对于单个事务来说太多了。尝试使用Titan Hadoop处理此类批处理工作负载,例如在伪集群模式下。这是最坏的情况,但是是的。一个用户可能有20万件需要删除的东西。我会看看Titan Hadoop,或者看看我是否能以某种方式将其拆分。
User -owns-> ~= 200K "A Thing"s. (g.v(user_id).outE('owns').count() ~= 200K)
A Thing -contains-> ~= 100 "A Description"s (g.v(a_thing_id).outE('contains').count() ~= 100)
A Description <-contains- ~= 100 "A Thing" (g.v(a_description_id).inE('contains').count ~= 100)