Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/docker/10.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
来自Docker的Apache旱獭进口商_Docker_Rdf_Triplestore_Apache Marmotta - Fatal编程技术网

来自Docker的Apache旱獭进口商

来自Docker的Apache旱獭进口商,docker,rdf,triplestore,apache-marmotta,Docker,Rdf,Triplestore,Apache Marmotta,我在AWS服务器上安装了ApacheMarmotta和Docker。我可以通过浏览器中的导入界面查看核心服务()。但是,我无法通过接口导入RDF文件 这些文件(RDF和TTL)位于本地计算机和服务器上。这些文件非常大(每个都超过2GB),因此我想使用它将它们带到Marmotta中,这样我就可以对它们运行SPARQL查询 在Marmotta中是否有一个参数可以调整以允许更大的文件导入?否则,是否可以通过Docker安装使用KiWi Loader?任何建议都很好。您可以使用本地目录导入。只需将您的

我在AWS服务器上安装了ApacheMarmotta和Docker。我可以通过浏览器中的导入界面查看核心服务()。但是,我无法通过接口导入RDF文件

这些文件(RDF和TTL)位于本地计算机和服务器上。这些文件非常大(每个都超过2GB),因此我想使用它将它们带到Marmotta中,这样我就可以对它们运行SPARQL查询


在Marmotta中是否有一个参数可以调整以允许更大的文件导入?否则,是否可以通过Docker安装使用KiWi Loader?任何建议都很好。

您可以使用本地目录导入。只需将您的
RDF/TTL
文件复制到
$MARMOTTA_HOME/import
。您可以在类似文件的结构中定义上下文库。例如,如果要将数据存储在
http://34.229.180.217:8080/marmotta/foo
,只需将您的文件存储在
$MARMOTTA_HOME/import/foo
中,这里使用的是默认上下文。但是,如果要在其他上下文中存储,请创建一个URL编码的文件夹。有关Apache Marmotta提供的导入文件选项的更多详细信息,请查看


嗯,我上传大文件时遇到了很多问题。我认为这主要是因为ApacheMarmotta提交数据之后就是内存中的所有内容,它是KiWi的一个实现。我不知道你是否可以分块上传,并且使用
importer.batchsize
属性对我没有多大作用。

你可以使用本地目录导入。只需将您的
RDF/TTL
文件复制到
$MARMOTTA_HOME/import
。您可以在类似文件的结构中定义上下文库。例如,如果要将数据存储在
http://34.229.180.217:8080/marmotta/foo
,只需将您的文件存储在
$MARMOTTA_HOME/import/foo
中,这里使用的是默认上下文。但是,如果要在其他上下文中存储,请创建一个URL编码的文件夹。有关Apache Marmotta提供的导入文件选项的更多详细信息,请查看

嗯,我上传大文件时遇到了很多问题。我认为这主要是因为ApacheMarmotta提交数据之后就是内存中的所有内容,它是KiWi的一个实现。我不知道你是否可以分块上传,而且使用
importer.batchsize
属性对我来说没什么用