Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/node.js/37.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js 节点与内存共享_Node.js_Memory_Crash - Fatal编程技术网

Node.js 节点与内存共享

Node.js 节点与内存共享,node.js,memory,crash,Node.js,Memory,Crash,我的nodejs程序内存不足…我知道您可以在nodejs中设置/更改分配的内存量-但这还不够。。。如果我将其设置为1,2,4 gb 我的程序在一个循环中运行了1,5,10或更多的百万次迭代-在这里它也保存到我的数据库中。。。但过了一段时间它崩溃了 我想知道为什么-程序实际上崩溃了,而不仅仅是运行较慢/将数据交换到磁盘等。。。就像“正常” 我尝试在windows中安装并运行一个程序,帮助GC/释放内存。。。看看有没有什么变化。。。但它没有 我如何解决这个问题?如何更好地了解实际使用的内存量,以便更

我的nodejs程序内存不足…我知道您可以在nodejs中设置/更改分配的内存量-但这还不够。。。如果我将其设置为1,2,4 gb

我的程序在一个循环中运行了1,5,10或更多的百万次迭代-在这里它也保存到我的数据库中。。。但过了一段时间它崩溃了

我想知道为什么-程序实际上崩溃了,而不仅仅是运行较慢/将数据交换到磁盘等。。。就像“正常”

我尝试在windows中安装并运行一个程序,帮助GC/释放内存。。。看看有没有什么变化。。。但它没有

我如何解决这个问题?如何更好地了解实际使用的内存量,以便更改代码


屏幕截图:

您可能需要添加一段代码来显示您正在做什么,这样可以更容易地看到正在发生的事情。这听起来像是一个内存泄漏问题,而不是Node.js内存问题。我意识到这是因为我对数据库进行了500万次单独的插入。。。当我一次插入5.000个对象时。。。没有引发异常。。。但是执行时间增加了一点。。。?通过节点向PostgreSQL插入数百万行的“最佳实践”是什么?为了让一切尽可能快地完成。。。我自己编写了数据库层的代码。。。因此,通过奇特的框架等没有开销……我会说,分批进行,看看你想在一个批中进行多少插入(我不知道PSQL在这里如何执行),并将所有插入拆分到页面中。使用node,您甚至可以决定如何同时完成许多插入。。。其中每个都包含1.000条insert语句(一个字符串)。。。然后使用所有1.000x17(列值)=17.000个参数执行…但可以通过这种方式降低速度。。。500万次单次插入速度要快得多…但它会使我的程序崩溃,因为太多的内存使用…你会怎么做?也许你应该先查找和。速度将取决于我们讨论的数据量。您可能希望添加一段代码来显示您正在做什么,这样更容易看到正在发生的事情。这听起来像是一个内存泄漏问题,而不是Node.js内存问题。我意识到这是因为我对数据库进行了500万次单独的插入。。。当我一次插入5.000个对象时。。。没有引发异常。。。但是执行时间增加了一点。。。?通过节点向PostgreSQL插入数百万行的“最佳实践”是什么?为了让一切尽可能快地完成。。。我自己编写了数据库层的代码。。。因此,通过奇特的框架等没有开销……我会说,分批进行,看看你想在一个批中进行多少插入(我不知道PSQL在这里如何执行),并将所有插入拆分到页面中。使用node,您甚至可以决定如何同时完成许多插入。。。其中每个都包含1.000条insert语句(一个字符串)。。。然后使用所有1.000x17(列值)=17.000个参数执行…但可以通过这种方式降低速度。。。500万次单次插入速度要快得多…但它会使我的程序崩溃,因为太多的内存使用…你会怎么做?也许你应该先查找和。速度将取决于我们讨论的数据量。