Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/24.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js 有没有办法使用npm Sequelize向SQL Server插入超过15万条记录?_Node.js_Sql Server_Sequelize.js_Bulkinsert - Fatal编程技术网

Node.js 有没有办法使用npm Sequelize向SQL Server插入超过15万条记录?

Node.js 有没有办法使用npm Sequelize向SQL Server插入超过15万条记录?,node.js,sql-server,sequelize.js,bulkinsert,Node.js,Sql Server,Sequelize.js,Bulkinsert,我将记录拆分为1000个数组,并在循环时对表进行大容量插入。大约60K条记录之后,它开始抛出一个SequelizeConnectionAcquireTimeoutError 这和游泳池的大小有关吗?我已将它的最大值配置为60。将池大小增加到160对我起到了作用。这不表明应用程序在处理(并显然丢失)连接时存在缺陷吗?我正在尝试重试,但仍然失败。我猜这与之前的大容量插入保持池连接有关,也可能是您在同一个表上并行执行了太多查询,并且正在慢慢耗尽连接。您需要限制代码中的并发性。是的,这可能是我现在要限制

我将记录拆分为1000个数组,并在循环时对表进行大容量插入。大约60K条记录之后,它开始抛出一个
SequelizeConnectionAcquireTimeoutError


这和游泳池的大小有关吗?我已将它的最大值配置为60。

将池大小增加到160对我起到了作用。

这不表明应用程序在处理(并显然丢失)连接时存在缺陷吗?我正在尝试重试,但仍然失败。我猜这与之前的大容量插入保持池连接有关,也可能是您在同一个表上并行执行了太多查询,并且正在慢慢耗尽连接。您需要限制代码中的并发性。是的,这可能是我现在要限制并发性并查看它是否有效的情况。使用事务还将使其“更快”,因为在提交之前不会写入行。