Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/25.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/windows/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql server 在sql中插入大型txt_Sql Server_Windows - Fatal编程技术网

Sql server 在sql中插入大型txt

Sql server 在sql中插入大型txt,sql-server,windows,Sql Server,Windows,我需要将多个“大”txt文件插入SQL server,这将是我第一次处理这么多数据 我的同事说,我工作场所目前的方法是导入/导出向导,每个表平均需要一周左右的时间(我认为这太多了) 最大的三个表的行数在7000-14000万行之间,列数在50-150列之间 我一直在读bcp/bulkinsert,但不知道如何实现,哪一个更快。我唯一得到的是,插入带有约束的数据比较慢,应该在创建表之后添加它们 所以我的问题是:哪种工具更适合执行任务?我可以做些什么来提高性能?最后,我相信导入/导出向导在幕后使用b

我需要将多个“大”txt文件插入SQL server,这将是我第一次处理这么多数据

我的同事说,我工作场所目前的方法是导入/导出向导,每个表平均需要一周左右的时间(我认为这太多了)

最大的三个表的行数在7000-14000万行之间,列数在50-150列之间

我一直在读bcp/bulkinsert,但不知道如何实现,哪一个更快。我唯一得到的是,插入带有约束的数据比较慢,应该在创建表之后添加它们


所以我的问题是:哪种工具更适合执行任务?我可以做些什么来提高性能?

最后,我相信导入/导出向导在幕后使用bcp。您可以做以下几件事来帮助提高性能:

  • 禁用/删除约束
  • 禁用/删除触发器
  • 禁用/删除索引
  • 使用最小日志数据库恢复模型
要记住的其他几件事是,如果插入的表大量填充,则性能不会那么快。您还可以并行批量插入文件的各个部分

以下是一个链接,提供了更多信息和其他优化方法:

希望这有帮助