将大型RDF加载到三重存储的跨平台方法

将大型RDF加载到三重存储的跨平台方法,rdf,bigdata,triplestore,virtuoso,Rdf,Bigdata,Triplestore,Virtuoso,目前,我们正在使用Virtuoso来存储RDF三元组。我们需要一种自动将RDF文件加载到数据库的方法。数据可能非常大,因此目前我们依赖于名家加载数据;然而,将来我们可能会切换到其他三联书店,所以我不想依赖于这样一个特定于平台的解决方案。是否有一种更通用的跨平台方式将大型RDF文件加载到三重存储中 我们的大多数编程都是在Python中完成的,因此最好是使用Python绑定的解决方案 我对语义网技术相当陌生,所以如果我的问题不够详细,请告诉我,我将尝试提供更多信息。谢谢大家! 有许多Virtuoso

目前,我们正在使用Virtuoso来存储RDF三元组。我们需要一种自动将RDF文件加载到数据库的方法。数据可能非常大,因此目前我们依赖于名家加载数据;然而,将来我们可能会切换到其他三联书店,所以我不想依赖于这样一个特定于平台的解决方案。是否有一种更通用的跨平台方式将大型RDF文件加载到三重存储中

我们的大多数编程都是在Python中完成的,因此最好是使用Python绑定的解决方案


我对语义网技术相当陌生,所以如果我的问题不够详细,请告诉我,我将尝试提供更多信息。谢谢大家!

有许多Virtuoso RDF insert方法在中详细介绍,其中大多数都是特定于Virtuoso的,部分原因是Virtuoso独有的功能,如WebDAV和ODS,或者在其他商店中以不同方式实现的功能,或者根本没有

在您的案例中,最通用的方法可能是将数据集读入Python,并使用SPARQL 1.1 update()命令将数据插入/加载到Virtuoso或支持SPARQL 1.1 update的任何其他三重存储中,我想现在大多数人都会这样做。这种方法的主要缺点是,必须用Python管理插入过程,以确保数据的加载一致,处理死锁、回滚等。这将使这种方法的速度慢得多,而且对于非常大的数据集来说,这可能是不可容忍的。这就是为什么大多数供应商提供自己的“批量加载”方法,在这种方法中,数据一致性和死锁等在内部处理得更快