Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/vb.net/15.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql 哪种方法最适合批量插入?_Sql_Vb.net_Sql Server 2005 - Fatal编程技术网

Sql 哪种方法最适合批量插入?

Sql 哪种方法最适合批量插入?,sql,vb.net,sql-server-2005,Sql,Vb.net,Sql Server 2005,我必须在sqlserver数据库中插入超过200k条记录 我的想法是将数据添加到数据表中,然后进行批量插入,但我的TL说:“将数据插入CSV文件格式并进行批量插入” 哪种方法更快?通常批量插入csv文件是高性能插入 BULK INSERT Table FROM ‘$path\$file.csv’ WITH ( FIELDTERMINATOR = ‘;’, ROWTERMINATOR = ‘\n’, KEEPIDENTITY, TABLOCK ) 我同意Tim

我必须在sqlserver数据库中插入超过200k条记录

我的想法是将数据添加到数据表中,然后进行批量插入,但我的TL说:“将数据插入CSV文件格式并进行批量插入”


哪种方法更快?

通常批量插入csv文件是高性能插入

BULK
INSERT Table
FROM ‘$path\$file.csv’
WITH
(
    FIELDTERMINATOR = ‘;’, 
    ROWTERMINATOR = ‘\n’,
    KEEPIDENTITY,
    TABLOCK
)

我同意Tim Schmelter的观点,答案可能因数据源而异。

通常批量插入csv文件是高性能插入

BULK
INSERT Table
FROM ‘$path\$file.csv’
WITH
(
    FIELDTERMINATOR = ‘;’, 
    ROWTERMINATOR = ‘\n’,
    KEEPIDENTITY,
    TABLOCK
)

我同意Tim Schmelter的观点,答案可能因数据源而异。

如果已经创建了CSV文件,那么无论是在性能上还是在开发时间上都是最快的

如果您在应用程序中创建数据,您很可能会发现这是最简单/最快的解决方案


无论哪种方式,200k记录都不是一个巨大的数据量,应该相当快。

如果已经创建了CSV文件,那么它的性能和开发时间都是目前为止最快的

如果您在应用程序中创建数据,您很可能会发现这是最简单/最快的解决方案


无论哪种方式,200k记录都不是一个巨大的数据量,应该相当快。

使用是最有效的方式。但是你还没有说什么是你的原始数据源。为什么你认为编写一个C程序来创建一个数据表,填充它,然后插入会更快?我认为你的TL在正确的轨道上。使用是最有效的方法。但是你还没有说什么是你的原始数据源。为什么你认为编写一个C程序来创建一个数据表,填充它,然后插入会更快?我认为你的TL在正确的轨道上。