Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/javascript/363.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Javascript Geojsplit可以使用多少堆内存,或者我可以成功拆分多大的文件? 问题_Javascript_Node.js_Memory_Geojson - Fatal编程技术网

Javascript Geojsplit可以使用多少堆内存,或者我可以成功拆分多大的文件? 问题

Javascript Geojsplit可以使用多少堆内存,或者我可以成功拆分多大的文件? 问题,javascript,node.js,memory,geojson,Javascript,Node.js,Memory,Geojson,我有一个130Gb.geojson文件,我正试图使用该工具在DO框上拆分该文件。我知道我的内存不足-我最近使用: node--max old space size=7168/usr/local/bin/geojsplit-l 100000-v/exports/geoJSON/layer.geoJSON 尝试实现将文件(~9M个功能)拆分为每个文件包含100000个功能的目标。这将产生大约100个文件 错误 运行上述代码时出现的错误: # # Fatal error in , line 0 # A

我有一个130Gb.geojson文件,我正试图使用该工具在DO框上拆分该文件。我知道我的内存不足-我最近使用:

node--max old space size=7168/usr/local/bin/geojsplit-l 100000-v/exports/geoJSON/layer.geoJSON

尝试实现将文件(~9M个功能)拆分为每个文件包含100000个功能的目标。这将产生大约100个文件

错误 运行上述代码时出现的错误:

#
# Fatal error in , line 0
# API fatal error handler returned after process out of memory
#
Illegal instruction (core dumped)
当这个命令运行时,我打开了另一个选项卡并在盒子上运行了
free-h
,盒子上只剩下大约50MB的可用空间,它使用了所有8GB

问题:
有人知道我需要多少RAM才能拆分这个geoJSON文件吗??我正在考虑为这个月的DO box增压,使我们能够一次性完成所有大型数据集,然后将其放回更易于管理的位置。

130 GB是大量的ram。可能编写一些后端代码来搜索json(不加载它),以查找需要返回前端的特定部分