Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/sql/86.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql 原木运输潜在积压_Sql_Logging_Shipping - Fatal编程技术网

Sql 原木运输潜在积压

Sql 原木运输潜在积压,sql,logging,shipping,Sql,Logging,Shipping,我计划在生产服务器和灾难恢复站点之间设置日志传送。两者之间的网络连接不是很好。其目的是每15分钟运行一次日志传送,这通常意味着将创建少于100Mb的事务日志,这些日志将在下一个15分钟间隔之前复制并恢复到DR 但是,隔夜作业有时会创建接近10Gb的巨大事务日志,需要4个多小时才能复制到DR。后续日志传送作业是否会运行并“超过”前一个作业 谢谢 Stuart不,日志将在主服务器上备份,并按队列发送到DR服务器,因此您不必担心这一点。我在发送日志文件方面没有任何问题。Litespeed完全备份(不必

我计划在生产服务器和灾难恢复站点之间设置日志传送。两者之间的网络连接不是很好。其目的是每15分钟运行一次日志传送,这通常意味着将创建少于100Mb的事务日志,这些日志将在下一个15分钟间隔之前复制并恢复到DR

但是,隔夜作业有时会创建接近10Gb的巨大事务日志,需要4个多小时才能复制到DR。后续日志传送作业是否会运行并“超过”前一个作业

谢谢


Stuart

不,日志将在主服务器上备份,并按队列发送到DR服务器,因此您不必担心这一点。

我在发送日志文件方面没有任何问题。Litespeed完全备份(不必使用Litespeed(.SLS文件)),但可以使用.bak文件。它们是脚本,您应该在其中运行和保存,让您的主prod服务器进行手动同步,然后每天进行完整备份,然后每隔15分钟进行一次复制。在DR上,为复制和恢复进程提供了一些每15分钟运行一次的作业

我有几个从200 GB到900 GB不等的数据库,对于大型.trn文件的复制来说,网络延迟似乎不是一个问题。瓶颈似乎在恢复过程中

一般来说,如果您没有继承表缺少主键的数据库灾难,那么我不建议使用旧的日志传送,有更好的方法(镜像和复制)