Import 散装进口/阿兰贡进口

Import 散装进口/阿兰贡进口,import,arangodb,Import,Arangodb,最后,我必须在aragnodb实例中加载35GB的数据。 到目前为止,我已经尝试了那些只加载5GB的方法(但失败了): 通过小精灵加载。它起作用了,但花了大约3天的时间;这不是一个选择 具有一个import?API端点,但我遇到了以下错误: …[1]警告最大车身尺寸为536870912,请求车身尺寸为-2032123904 命令,但我最终出现了两个不同的错误: 无/小——批量大小时,它将激发 导入文件太大。请增加--batch size的值 如果批量大小大于——则返回与批量导入相同的错误

最后,我必须在aragnodb实例中加载35GB的数据。
到目前为止,我已经尝试了那些只加载5GB的方法(但失败了):

  • 通过小精灵加载。它起作用了,但花了大约3天的时间;这不是一个选择

  • 具有一个
    import?
    API端点,但我遇到了以下错误:
    …[1]警告最大车身尺寸为536870912,请求车身尺寸为-2032123904

  • 命令,但我最终出现了两个不同的错误:

    • 无/小
      ——批量大小
      时,它将激发
      导入文件太大。请增加--batch size的值
    • 如果批量大小大于
      ——则返回与批量导入相同的错误
有人能告诉我如何修复does命令吗, 还是一种实际加载这些数据的方法

谢谢

为@DavidThomas编辑,下面是规格:
-RAM:128G
-CPU:2x Intel(R)Xeon(R)CPU E5-2420 0@1.90GHz
-操作系统:Linux(ubuntu)喷嚏3.13.0-86-generic

-HDD:classic(非SSD)

我希望您没有使用Arangodb2.4作为?;-)

为了我们的产品,我们进口了。服务器的最大邮件正文大小为512MB

出于性能原因,arangoimp不解析json,而是将导入文件的一行作为要发送的一个文档,因此它可以轻松地将其切分为有效的json

因此,它不能像这样处理json转储中的分块:

[
{ "name" : { "first" : "John", "last" : "Connor" }, "active" : true, "age" : 25, "likes" : [ "swimming"] },
{ "name" : { "first" : "Lisa", "last" : "Jones" }, "dob" : "1981-04-09", "likes" : [ "running" ] }
]
并试图立即发送整个文件;如果超出了指定的批处理大小,您将收到
导入文件太大
错误消息

但是,如果文件每行包含一个文档:

{ "name" : { "first" : "John", "last" : "Connor" }, "active" : true, "age" : 25, "likes" : [ "swimming"] }
{ "name" : { "first" : "Lisa", "last" : "Jones" }, "dob" : "1981-04-09", "likes" : [ "running" ] }
它可以按照
--batch size
处理每行的分块,最小大小为32kb

因此,为了使用arangoimp,您需要按照上面的指南准备转储


由于arangoimp也使用导入API,因此它与使用原始API具有相同的限制。您需要将输出写入并翻译为每行一个文档。然后,您可以在脚本中直接向服务器发送数据块,或者使用arangoimp为您处理数据块。

ArangoDB服务器的规格是什么?内存,硬盘,CPU,操作系统。我知道RAM很重要。我也对我在阿兰戈的工作感兴趣。干杯,谢谢统计数据。我已经完成了导入,但使用node.js应用程序在导入文件(csv或json格式)上打开一个流读取器,然后将记录推入(使用fs包中的.createReadStream)。关闭WaitForSync可以加快速度,但可能会引发其他问题。我很有兴趣看到Arango的支持者回答这个问题。非常感谢你们的支持。我会按照你的提示去做,然后我会向你汇报。