Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/three.js/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
.net SQLBulkCopy与DataAdapter用于插入/更新10lcs记录_.net_Vb.net_Performance_Sqlbulkcopy_Dataadapter - Fatal编程技术网

.net SQLBulkCopy与DataAdapter用于插入/更新10lcs记录

.net SQLBulkCopy与DataAdapter用于插入/更新10lcs记录,.net,vb.net,performance,sqlbulkcopy,dataadapter,.net,Vb.net,Performance,Sqlbulkcopy,Dataadapter,我有大约1000000多条记录要插入数据库 应更新具有相同Id的记录,否则应插入 更新/插入逻辑写入存储过程 我正在使用DataAdapter.Update方法来完成这项工作 问题就在这里 一个数据表接受的记录不超过65000条 插入/更新速度仅为每秒60条记录 如何提高性能,我可以在这里使用SqlBulkCopy吗?它可以一起进行更新/插入吗?如果只是为了插入更新而将记录加载到数据表中,会有什么样的性能 如果是这样,您最好一次直接调用一个SP,并跳过数据表 或者您可以使用TVP和IEnumer

我有大约1000000多条记录要插入数据库

应更新具有相同Id的记录,否则应插入

更新/插入逻辑写入存储过程

我正在使用DataAdapter.Update方法来完成这项工作

问题就在这里

一个数据表接受的记录不超过65000条

插入/更新速度仅为每秒60条记录


如何提高性能,我可以在这里使用SqlBulkCopy吗?它可以一起进行更新/插入吗?如果只是为了插入更新而将记录加载到数据表中,会有什么样的性能

如果是这样,您最好一次直接调用一个SP,并跳过数据表

或者您可以使用TVP和IEnumerable SqlDataRecord,这样您就不受65000的限制


这是两个独立的问题。Tony提到的第一个副本涉及性能,我提到的一个涉及“我可以使用SQL Bulk Copy进行插入/更新吗?”而不是询问SQLBulkCopy vs DataAdapter描述源数据的格式并询问如何提高加载速度。