Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/sql-server-2005/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql server 2005 SQL Server 2005在250000000行导入中落后了相当多的20%_Sql Server 2005 - Fatal编程技术网

Sql server 2005 SQL Server 2005在250000000行导入中落后了相当多的20%

Sql server 2005 SQL Server 2005在250000000行导入中落后了相当多的20%,sql-server-2005,Sql Server 2005,我们有一个130 Gb的数据库和55 Gb的可用空间,我们似乎无法回收。这些数据本质上大多是存档的,因此我们不确定额外的空间似乎来自何处 我的想法是通过运行从原始数据库到新副本的平面导出来重新创建数据库,前提是新数据库不会到处都有幻影死区 为了确保日志记录不是一个问题,我将新数据库设置为simple,并从原始数据库中设置了一个导出作业,该作业按预期运行,直到它在2000万行中达到大约40000000行。。。在这一点上,它只是慢下来爬行 在整个出口过程中,我应该寻找什么样的东西来培训和提高吞吐量

我们有一个130 Gb的数据库和55 Gb的可用空间,我们似乎无法回收。这些数据本质上大多是存档的,因此我们不确定额外的空间似乎来自何处

我的想法是通过运行从原始数据库到新副本的平面导出来重新创建数据库,前提是新数据库不会到处都有幻影死区

为了确保日志记录不是一个问题,我将新数据库设置为simple,并从原始数据库中设置了一个导出作业,该作业按预期运行,直到它在2000万行中达到大约40000000行。。。在这一点上,它只是慢下来爬行

在整个出口过程中,我应该寻找什么样的东西来培训和提高吞吐量

附件是表中字段和索引的屏幕截图


为什么您认为simple=不记录日志?您是否检查过这是否是数据或日志文件上的过期事件?如果在数据文件上,是否检查是否启用了即时文件初始化?发布最慢查询的执行计划。随着数据大小的增加而突然变慢通常意味着工作集耗尽了RAM。这将强制访问速度慢100倍以上的磁盘。从悬崖上摔下来。删除所有索引。我怀疑它们会导致随机页面访问,进而导致大的工作集。老实说。我花了五分钟盯着亚伦的第一个问题。不是被它吓呆了,而是被我的回答吓呆了。因为我不知道为什么。我只是。。。UH我一直认为这就是简单的意思。这个问题的直截了当暴露了我对本应是毫不费力的事情的完全无知。我会慢慢地回到一个角落,哭一会儿,然后在周一回来回答这些问题和usr的问题。Usr,我想可能也是索引。想知道是否先删除它们,然后在移动后重建可能是一个更好的主意。@DaveCaly如果您要重写整个表,这通常是一个更好的主意。顺便问一下,您是如何尝试回收空间的?