Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/azure/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
基于Azure运营成本的MongoDB_Mongodb_Azure - Fatal编程技术网

基于Azure运营成本的MongoDB

基于Azure运营成本的MongoDB,mongodb,azure,Mongodb,Azure,我们将MongoDB用作Azure上的虚拟机A3。我们正在尝试为以下场景模拟使用MongoDB的运行成本: 该方案是由100000名客户每5分钟插入/更新约2k个数据量的时间序列数据。我们在Azure上的Windows Server的A3实例4核心上使用MongoDB,每个碎片限制4TB 我们估计运行成本约为每月34000美元,其中包括MongoDB许可、我们的MongoDB虚拟机、存储、备份存储和工作角色 这是非常昂贵的。我们有一些降低成本的想法,但需要一些关于这些想法的建议,因为你们中的一些

我们将MongoDB用作Azure上的虚拟机A3。我们正在尝试为以下场景模拟使用MongoDB的运行成本:

该方案是由100000名客户每5分钟插入/更新约2k个数据量的时间序列数据。我们在Azure上的Windows Server的A3实例4核心上使用MongoDB,每个碎片限制4TB

我们估计运行成本约为每月34000美元,其中包括MongoDB许可、我们的MongoDB虚拟机、存储、备份存储和工作角色

这是非常昂贵的。我们有一些降低成本的想法,但需要一些关于这些想法的建议,因为你们中的一些人可能已经这样做了

两个问题: 1-到今天为止,我们估计将使用28个MongoDB实例,限制为4 TB。我读到,在Linux VM或Windows Server 2012服务器上,我们可以将磁盘大小从4TB增加到64 TB。这可能会减少我们需要的碎片数量。Azure中是否可以在64TB磁盘大小的碎片上运行MongoDB

您可能会问,为什么有28个实例

2-我们正在根据每个核心的插入数量计算所需的碎片数量;其本身取决于每条消息在MongoDB中插入的值的数量。每个值是82字节。我们做了一些负载测试,结果表明,我们每秒只能运行8000个插入,每个核心每秒可以处理大约193个插入-导致需要41个核心,这太高了。您可以将41个内核/4划分为A3 11实例-这是另一个成本

寻求帮助,看看我们的计算是否错误或我们的设置方式是否错误

任何帮助都将不胜感激。

问题1:

1-到今天为止,我们估计将使用28个MongoDB实例和4个 结核病限额。我读到我们可以将磁盘大小从4TB增加到 Linux VM或Windows Server 2012服务器上的容量为64 TB。这可能会减少我们的收入 需要的碎片数。正在64TB磁盘大小的碎片上运行MongoDB 在Azure中可能吗


根据,您可以实现的最大容量为16TB,即连接16个数据磁盘,每个磁盘最多1 TB。因此,从技术上讲,您可以连接的最大磁盘是1TB,但您可以使用连接的16个磁盘构建RAID 0条带,这样您就可以获得16TB的存储。但这16 TB是您可以获得的最大存储容量

根据Azure文档,A3大小最多可以有8个数据磁盘。因此,最大容量为8TB。A4可以处理16个磁盘。我认为这里的瓶颈是磁盘,而不是内核的数量。所以我不相信你需要这么大的集群。

如果所有这些数据都是真实的,你不应该把你的问题放在这里!您应该立即联系您所在国家的当地Microsoft代表,并从他们那里获得直接建议。我相信他们会很乐意帮助你,甚至会给你一份企业协议,可能会有一些折扣!谢谢你@astaykov。我们正在与我们的微软代表联系,并将与他们合作。我仍然在寻找问题1的答案-我可以在Azure上以64TB的磁盘大小运行MongoDB虚拟机吗?