Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/22.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
C# Sql server或Mongodb需要一些建议_C#_Sql Server_Mongodb - Fatal编程技术网

C# Sql server或Mongodb需要一些建议

C# Sql server或Mongodb需要一些建议,c#,sql-server,mongodb,C#,Sql Server,Mongodb,好的,到目前为止,我几乎所有的应用程序都使用了关系数据库,但我要做的当前任务在负载方面令人惊讶 我想实施的当前场景:我有一份1.5k家酒店的列表,这些酒店将在一年(365天)内共享其库存(房间类型/可用性) 假设每个酒店至少有3种房间类型,那么我的计算是 1500*3*365=1642500条记录 这是怎么回事 作为OTA合作伙伴,我们全年都会从酒店列表中获取库存,因此每次预订完成后,我们都必须根据预订日期更新记录。因此,考虑到上述情况,sql server是否可以轻松处理插入的大量数据?或者我

好的,到目前为止,我几乎所有的应用程序都使用了关系数据库,但我要做的当前任务在负载方面令人惊讶

我想实施的当前场景:我有一份1.5k家酒店的列表,这些酒店将在一年(365天)内共享其库存(房间类型/可用性)

假设每个酒店至少有3种房间类型,那么我的计算是

1500*3*365=1642500条记录

这是怎么回事

作为OTA合作伙伴,我们全年都会从酒店列表中获取库存,因此每次预订完成后,我们都必须根据预订日期更新记录。因此,考虑到上述情况,sql server是否可以轻松处理插入的大量数据?或者我想考虑移动到文档数据库,或者是否还有其他更容易实现的解决方案。
提前感谢

如果您正在谈论性能,我建议您使用Mongodb。当你必须处理大量数据时,速度会更快。而且,您还可以轻松地升级实体,因为它是无模式的

您可以检查此链接,以了解两者之间的性能比较:

您在问sql server是否可以处理160万条记录?是的,它可以,很容易。它是一个数据库。这就是它的全部功能。这很好。本文描述了DB每秒钟插入80k ins(但这是相对的)。所以在这种情况下,1.65M/80k数据库将在20秒内插入您的记录。