Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/database/8.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Database Ressource在将大量数据流存储到数据库中时的使用情况_Database_Performance - Fatal编程技术网

Database Ressource在将大量数据流存储到数据库中时的使用情况

Database Ressource在将大量数据流存储到数据库中时的使用情况,database,performance,Database,Performance,首先,我对数据库一无所知,所以如果这是一个愚蠢的问题,请原谅我 我的公司正在通过TCP接收大量位置数据。每个数据包由几个浮点数和一个时间戳组成。我们的任务是将数据存储到一个数据库(MS SQL Server 2005)中,该数据库运行在一台现代PC上 每个blob大约有20个字节。最多有1000个发件人,每个人每秒发送大约25个包裹 一台普通的个人电脑能处理这么多的数据吗?如果没有,如何处理这个问题?我们是否应该为每个发件人设置一台专用电脑?以便了解您的要求: 您希望每秒最多插入25000次 您

首先,我对数据库一无所知,所以如果这是一个愚蠢的问题,请原谅我

我的公司正在通过TCP接收大量位置数据。每个数据包由几个浮点数和一个时间戳组成。我们的任务是将数据存储到一个数据库(MS SQL Server 2005)中,该数据库运行在一台现代PC上

每个blob大约有20个字节。最多有1000个发件人,每个人每秒发送大约25个包裹


一台普通的个人电脑能处理这么多的数据吗?如果没有,如何处理这个问题?我们是否应该为每个发件人设置一台专用电脑?

以便了解您的要求:
您希望每秒最多插入25000次
您希望最多存储20个字节*1000个发件人*25个数据包*60秒*60分钟*24小时=43.2 GB/天

有几件事:

  • 这是一个非常大的数据量
  • 一台普通的个人电脑无法处理这个问题,你需要一台功能强大的服务器和非常大的磁盘阵列来处理这个问题
  • 您计划如何处理您的数据?如果您想处理它,您可能需要查看数据仓库等
最后,这不是您的专业领域,对于这样规模的项目,您需要一位专家。
找一个,即使是短期咨询