Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/sql/80.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用有限的“测试SQL导入脚本”;“子集”;实时数据的存储_Sql_Tsql_Import - Fatal编程技术网

使用有限的“测试SQL导入脚本”;“子集”;实时数据的存储

使用有限的“测试SQL导入脚本”;“子集”;实时数据的存储,sql,tsql,import,Sql,Tsql,Import,我正在用新的(内部)应用程序替换内部构建的应用程序。此过程的一部分涉及将数据从旧应用程序迁移到新应用程序。这两个应用程序都使用SQLServer2005(SP1) 由于数据的结构方式发生了变化,我正在开发一个导入脚本,该脚本将从旧应用程序的数据库中获取数据,并在新应用程序的数据库中创建条目 我唯一的问题是,实时应用程序的数据库是120Gb,对实时数据库的副本运行导入脚本需要相当长的时间 我正在考虑为这一阶段的测试减少实时数据库副本的大小。这样,导入将运行得更快,结果也更容易检查(一旦我对导入“受

我正在用新的(内部)应用程序替换内部构建的应用程序。此过程的一部分涉及将数据从旧应用程序迁移到新应用程序。这两个应用程序都使用SQLServer2005(SP1)

由于数据的结构方式发生了变化,我正在开发一个导入脚本,该脚本将从旧应用程序的数据库中获取数据,并在新应用程序的数据库中创建条目

我唯一的问题是,实时应用程序的数据库是120Gb,对实时数据库的副本运行导入脚本需要相当长的时间

我正在考虑为这一阶段的测试减少实时数据库副本的大小。这样,导入将运行得更快,结果也更容易检查(一旦我对导入“受限”数据库的结果感到满意,我就可以对整个过程执行测试)

不幸的是,我还没有用SQL Server数据库做过类似的事情,甚至不知道这是否可行。是否有人尝试过对应用程序迁移执行类似的操作?

您可以尝试使用

SELECT TOP <N> * FROM table ...
如果“客户”是高负载表,您可以尝试仅转换前1000名客户(或更少),但转换所有产品,因为产品表较小。然后,您应该只转换customerproduct关系表中所需的ID,这是customers表中前1000个客户ID

因此,您需要选择重表,并为使用其唯一字段关系的表编写特殊代码。

谢谢:-)加载最重的表是附件表(存储varbinary值)。在这个阶段,我将执行最近1000个条目的导入,因为没有复杂的依赖项。
customers
---------
customer_id   customer_name   address   phone   ...

products
--------
product_id   product_name   price   ...

customer_product_relation
-------------------------
customer_id   product_id