Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/oracle/10.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql server 您是否认为根据您的经验,SSIS比导出/导入更快?也许我们没有正确地设置SSIS,但我参与的一个项目,导出/加载是总时间的1/2。即使使用Attunity适配器,SSIS中的Oracle源代码在高容量传输中的性能也从来没有像Oracle->file->BU_Sql Server_Oracle_Optimization_Ssis_Etl - Fatal编程技术网

Sql server 您是否认为根据您的经验,SSIS比导出/导入更快?也许我们没有正确地设置SSIS,但我参与的一个项目,导出/加载是总时间的1/2。即使使用Attunity适配器,SSIS中的Oracle源代码在高容量传输中的性能也从来没有像Oracle->file->BU

Sql server 您是否认为根据您的经验,SSIS比导出/导入更快?也许我们没有正确地设置SSIS,但我参与的一个项目,导出/加载是总时间的1/2。即使使用Attunity适配器,SSIS中的Oracle源代码在高容量传输中的性能也从来没有像Oracle->file->BU,sql-server,oracle,optimization,ssis,etl,Sql Server,Oracle,Optimization,Ssis,Etl,您是否认为根据您的经验,SSIS比导出/导入更快?也许我们没有正确地设置SSIS,但我参与的一个项目,导出/加载是总时间的1/2。即使使用Attunity适配器,SSIS中的Oracle源代码在高容量传输中的性能也从来没有像Oracle->file->BULK INSERT那样好,即使付出了成本。对于我们来说,我们已经看到了在仅移动3000万(宽)行时的性能权衡。此外,您还可以更轻松地并行化文件进程,尽管我想知道Attunity的并行功能如何与一种分区存储过程一起工作,这种存储过程在不同的索引点


您是否认为根据您的经验,SSIS比导出/导入更快?也许我们没有正确地设置SSIS,但我参与的一个项目,导出/加载是总时间的1/2。即使使用Attunity适配器,SSIS中的Oracle源代码在高容量传输中的性能也从来没有像Oracle->file->BULK INSERT那样好,即使付出了成本。对于我们来说,我们已经看到了在仅移动3000万(宽)行时的性能权衡。此外,您还可以更轻松地并行化文件进程,尽管我想知道Attunity的并行功能如何与一种分区存储过程一起工作,这种存储过程在不同的索引点命中所有相同的基表。但Oracle作为大型数据集的来源绝对是一个(以我的经验)数据流吞吐量非常好的例子,但与平面文件中间商相比不是最优的。@Sheller和我都不是。顺便说一句,这里讨论得很好,应该补进Kyle的答案中,以帮助人们理解为什么与互联网经济特区相比。“视情况而定”的标准警告适用,但我的观点是,在一般意义上,
(从源代码读取磁盘+为导出而写入磁盘+为导入而读取磁盘+为SQL Server写入磁盘)>(从源代码读取磁盘+内存滥用+为SQL Server写入磁盘)
。如果这个公式在同事的经验中不适用于Oracle,那么我要记下,始终评估这两种方法。你真的每周都会生成10-20亿行全新的行吗?这似乎不大可能。看起来最大的优化来源很可能是构建一个变更数据捕获过程,这样你就只移动一周内实际添加或修改的一小部分行。事实上是的——我知道这听起来很疯狂,但是数据每周都在变化,并且是自我修正的。那么你的10-20亿行中的绝大多数每周都在变化?这似乎不太可能。即使你有一个纠正数据的过程,从一周到下一周,绝大多数数据似乎都没有改变。备份和恢复对这么大的表没有任何帮助吗?如果两台服务器使用同一个SAN,肯定会有好处。我以前没有这样做过,只是把它放在那里,这样有人就可以对它进行一些实际的解释。你真的每周都会产生10-20亿个全新的行吗?这似乎不大可能。看起来最大的优化来源很可能是构建一个变更数据捕获过程,这样你就只移动一周内实际添加或修改的一小部分行。事实上是的——我知道这听起来很疯狂,但是数据每周都在变化,并且是自我修正的。那么你的10-20亿行中的绝大多数每周都在变化?这似乎不太可能。即使你有一个纠正数据的过程,从一周到下一周,绝大多数数据似乎都没有改变。备份和恢复对这么大的表没有任何帮助吗?如果两台服务器使用同一个SAN,肯定会有好处。我以前没有这样做过,只是把它扔进去,这样有人就可以用事实来解释它了。