Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/27.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql server 事务日志速率_Sql Server_Azure_Azure Sql Database - Fatal编程技术网

Sql server 事务日志速率

Sql server 事务日志速率,sql-server,azure,azure-sql-database,Sql Server,Azure,Azure Sql Database,我们正在考虑将生产数据库转移到Azure SQL数据库。读这篇文章时,该点闪烁红灯。我们的数据库设计得不是很好,有很多NVARCHAR(MAX)列,存储了大量JSON文档等 根据微软的文件 这些限制在次秒级被跟踪并强制执行到 日志记录生成的速率,无论如何限制吞吐量 许多IOs可能针对数据文件发布 在将数据库迁移到Azure之前,我想评估我们的本地数据库,看看它是否会成为节流的受害者 我该怎么做?。Azure的速率限制为96 MB/秒;你可以检查你的生产数据库,如果你正在接近这一点。请注意,典型的

我们正在考虑将生产数据库转移到Azure SQL数据库。读这篇文章时,该点闪烁红灯。我们的数据库设计得不是很好,有很多
NVARCHAR(MAX)
列,存储了大量JSON文档等

根据微软的文件

这些限制在次秒级被跟踪并强制执行到 日志记录生成的速率,无论如何限制吞吐量 许多IOs可能针对数据文件发布

在将数据库迁移到Azure之前,我想评估我们的本地数据库,看看它是否会成为节流的受害者


我该怎么做?

。Azure的速率限制为96 MB/秒;你可以检查你的生产数据库,如果你正在接近这一点。请注意,典型的分析侧重于事务写入的延迟,因为这是大多数生产设置中的实际瓶颈;这显然与每秒写入的数据量相关,但不一定以简单的线性方式。对于Azure,您的任务会更简单,因为这是对总数据的限制。谢谢。数据库日志字节刷新计数器呢?这同样有效。您也可以从T-SQL访问性能计数器(
sys.dm_os_performance_counters
),但就正确采样和解码计数器类型而言,它们比IO视图更难正确使用。(当然,您也可以使用性能监视器。)谢谢。还有其他限制吗?我记得几年前读过一篇文章说,如果查询执行时间超过x分钟或使用x资源,那么它就会断开连接。我非常确定,只要不超过池CPU/IO资源(并适当设置命令超时时间)您的查询可以运行到资源持续的时间,并且没有固定的运行时间限制,但我对Azure没有个人经验。(即使有固定的运行时限制,也很难说迁移到Azure时对现有查询的运行时间有什么影响。)