Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/24.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql server 想要减少数据库命中率吗_Sql Server_Database_Performance - Fatal编程技术网

Sql server 想要减少数据库命中率吗

Sql server 想要减少数据库命中率吗,sql-server,database,performance,Sql Server,Database,Performance,我有实时出勤申请。我使用Angular作为前端,SQL Server作为后端 我想让1000多人参加,所以我想在数组中添加他们唯一的身份号码,最后保存相同的号码。但是,我担心如果互联网连接在两者之间丢失,那么会丢失所有数据。因此,作为一种变通方法,我们认为一次只参加一次(可能需要5秒)并保存它,这将增加API调用和数据库点击,这可能会引发错误或性能问题 那么,这会是一个问题吗?有什么办法可以解决这个问题呢?网络和应用程序的反应速度会比你找到下一个人并点击的时间快,那么你为什么担心呢?1000人对

我有实时出勤申请。我使用Angular作为前端,SQL Server作为后端

我想让1000多人参加,所以我想在数组中添加他们唯一的身份号码,最后保存相同的号码。但是,我担心如果互联网连接在两者之间丢失,那么会丢失所有数据。因此,作为一种变通方法,我们认为一次只参加一次(可能需要5秒)并保存它,这将增加API调用和数据库点击,这可能会引发错误或性能问题


那么,这会是一个问题吗?有什么办法可以解决这个问题呢?

网络和应用程序的反应速度会比你找到下一个人并点击的时间快,那么你为什么担心呢?1000人对DB来说不算什么

如果它很关键,您知道已经发生了更新,那么您需要实施一种在发生故障时重试的方法。无论是1条记录还是1000条记录,重试机制都将以相同的方式工作,并且需要在数据库级别了解更新是否发生。这是一个复杂的设计,不是一个问题就能回答的。你应该学习如何实现类似WebSocket的东西来实现类似的东西。那么你认为每5秒有一次db命中没有坏处吗?这取决于你的系统配置,但是大多数数据库每秒可以处理1000次点击。除非查询时间超过5秒,否则不会向系统添加任何负载。