确保rdf的未来更新高效/更快的最佳实践是什么

确保rdf的未来更新高效/更快的最佳实践是什么,rdf,sparql,jena,semantic-web,Rdf,Sparql,Jena,Semantic Web,我想描述一下大约50000(或者更多)个文档。我使用Jena创建了一个默认模型,并开始添加资源和相应的属性。我没有做过三重存储或使用Jena的TDB数据集。确保未来查询和最重要的更新更高效/更快的最佳实践是什么。有人建议给每个图形命名和/或在不同的文件中分隔它们 如果您拥有的数据多于方便地存储在内存中的数据,请使用RDF数据库。磁盘上的许多文件不太可能如此高效 要么使用进程内数据库,如ApacheJenaTDB,要么共享RDF数据库服务器(JenaFuseki) 一个独立的服务器意味着您可以使用

我想描述一下大约50000(或者更多)个文档。我使用Jena创建了一个默认模型,并开始添加资源和相应的属性。我没有做过三重存储或使用Jena的TDB数据集。确保未来查询和最重要的更新更高效/更快的最佳实践是什么。有人建议给每个图形命名和/或在不同的文件中分隔它们

如果您拥有的数据多于方便地存储在内存中的数据,请使用RDF数据库。磁盘上的许多文件不太可能如此高效

要么使用进程内数据库,如ApacheJenaTDB,要么共享RDF数据库服务器(JenaFuseki)


一个独立的服务器意味着您可以使用任何符合SPARQL的系统来实现这一目的。

询问最佳实践意见的问题通常都是离题的,因此,您可能更幸运地在answers.semanticweb.com这样的外部网站上提问,该网站对此类性质的问题有更宽松的政策