Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/performance/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/sql-server-2008/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/26.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Performance 我应该总是在大容量插入后重建索引,还是只是定期重建索引?_Performance_Sql Server 2008_Bulkinsert_Indexing - Fatal编程技术网

Performance 我应该总是在大容量插入后重建索引,还是只是定期重建索引?

Performance 我应该总是在大容量插入后重建索引,还是只是定期重建索引?,performance,sql-server-2008,bulkinsert,indexing,Performance,Sql Server 2008,Bulkinsert,Indexing,我知道批量插入会忽略索引。如果我有一个1亿条记录表,并且每天使用大容量插入插入30-50k条记录,那么每周重建索引与每天重建索引之间会有很大区别吗?大容量插入会像SQLServer中的普通插入一样更新索引。它不会忽视它们 重建索引就像对磁盘进行碎片整理。对于50k的插入,每周重建是慷慨的。每月一次就可以了。批量插入会像SQLServer中的普通插入一样更新索引。它不会忽视它们 重建索引就像对磁盘进行碎片整理。对于50k的插入,每周重建是慷慨的。每月一次就可以了。好吧,现在我想知道我是从哪里得到这

我知道批量插入会忽略索引。如果我有一个1亿条记录表,并且每天使用大容量插入插入30-50k条记录,那么每周重建索引与每天重建索引之间会有很大区别吗?

大容量插入会像SQLServer中的普通插入一样更新索引。它不会忽视它们


重建索引就像对磁盘进行碎片整理。对于50k的插入,每周重建是慷慨的。每月一次就可以了。

批量插入会像SQLServer中的普通插入一样更新索引。它不会忽视它们


重建索引就像对磁盘进行碎片整理。对于50k的插入,每周重建是慷慨的。每月一次就可以了。

好吧,现在我想知道我是从哪里得到这个主意的。我想我一定是刚刚看到它可以忽略约束,然后出于某种奇怪的原因得出这个结论。好吧,现在我想知道我是从哪里得到这个想法的。我想我一定是刚刚看到它可以忽略约束并出于某种奇怪的原因得出这个结论。您可能至少需要每天(每夜)更新统计数据,以确保查询优化器准确了解表中的数据分布,从而实现最佳查询计划选择。@marc_听起来是个好主意,谢谢。您可能希望至少每天(每夜)更新统计信息,以确保查询优化器准确了解表中的数据分布,从而实现最佳查询计划选择。@marc_听起来是个好主意,谢谢。