Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/google-cloud-platform/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Google cloud platform GCP数据流vCPU使用和定价问题_Google Cloud Platform_Google Cloud Dataflow - Fatal编程技术网

Google cloud platform GCP数据流vCPU使用和定价问题

Google cloud platform GCP数据流vCPU使用和定价问题,google-cloud-platform,google-cloud-dataflow,Google Cloud Platform,Google Cloud Dataflow,我提交了一个GCP数据流管道来接收来自GCP发布/订阅的数据,解析并存储到GCP数据存储。它似乎工作完美 经过21天,我发现成本是144.54美元,工作时间是2094.72小时。这意味着在我提交后,它将每秒收费,即使没有从发布/订阅接收(处理)任何数据 这种行为正常吗?还是我设置了错误的参数? 我认为CPU使用时间只有在收到数据时才计算 在相同的工作模式下(从发布/订阅接收并存储到数据存储),是否有任何方法可以降低成本 云数据流服务以每秒为增量,以每个作业为基础。我猜您的工作使用了4名n1-st

我提交了一个GCP数据流管道来接收来自GCP发布/订阅的数据,解析并存储到GCP数据存储。它似乎工作完美

经过21天,我发现成本是144.54美元,工作时间是2094.72小时。这意味着在我提交后,它将每秒收费,即使没有从发布/订阅接收(处理)任何数据

这种行为正常吗?还是我设置了错误的参数? 我认为CPU使用时间只有在收到数据时才计算


在相同的工作模式下(从发布/订阅接收并存储到数据存储),是否有任何方法可以降低成本

云数据流服务以每秒为增量,以每个作业为基础。我猜您的工作使用了4名n1-standard-1工人,使用了4台vCPU,估计每小时提供2000台vCPU。因此,这种行为是正常的。要降低成本,您可以使用指定最大工作人数,或使用覆盖分配给每个工作人员的资源设置。根据你的必需品,你可以考虑使用哪一种,但是考虑它的.< /P>
希望有帮助。

云数据流服务以每秒为增量,以每个作业为基础。我猜您的工作使用了4名n1-standard-1工人,使用了4台vCPU,估计每小时提供2000台vCPU。因此,这种行为是正常的。要降低成本,您可以使用指定最大工作人数,或使用覆盖分配给每个工作人员的资源设置。根据你的必需品,你可以考虑使用哪一种,但是考虑它的.< /P>
希望能有帮助。

我不知道我的问题出了什么问题,为什么要投反对票。。请给我一些评论或留言,谢谢。我不知道我的问题出了什么问题,为什么要投反对票。。请给我一些评论或留言,谢谢。谢谢你的解释,我很感激。让我确认一下,当作业“启动”时,数据流是收费的,即使它没有处理/接收任何数据。降低成本的唯一方法是减少分配的资源,即使没有任何数据传入,使用时间仍然是每秒钟递增一次。我的理解正确吗?再次感谢,没错。由于您开始使用这些资源而不考虑您的数据处理。感谢您的解释,我非常感谢。让我确认一下,当作业“启动”时,数据流是收费的,即使它没有处理/接收任何数据。降低成本的唯一方法是减少分配的资源,即使没有任何数据传入,使用时间仍然是每秒钟递增一次。我的理解正确吗?再次感谢,没错。因为无论数据处理如何,您都开始使用资源。