Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 AWS S3文件夹度量_Amazon S3_Monitoring_Prometheus_Grafana_Amazon Cloudwatch - Fatal编程技术网

Amazon s3 AWS S3文件夹度量

Amazon s3 AWS S3文件夹度量,amazon-s3,monitoring,prometheus,grafana,amazon-cloudwatch,Amazon S3,Monitoring,Prometheus,Grafana,Amazon Cloudwatch,我们正在使用grafana的cloudwatch数据源进行aws度量。我们希望根据大小区分S3 bucket中的文件夹,并将其显示为图形。我们知道cloudwatch不提供对象级别的度量,而是提供bucket级别的度量。为了监控bucket中文件夹的大小,请告诉我们是否有任何可能的解决方案。 如有任何建议,我们将不胜感激 提前感谢。Amazon CloudWatch为Amazon S3存储桶提供了每日存储指标,但正如您所提到的,这些指标是针对整个存储桶的,而不是文件夹级别的 可以提供每日CSV文

我们正在使用grafana的cloudwatch数据源进行aws度量。我们希望根据大小区分S3 bucket中的文件夹,并将其显示为图形。我们知道cloudwatch不提供对象级别的度量,而是提供bucket级别的度量。为了监控bucket中文件夹的大小,请告诉我们是否有任何可能的解决方案。 如有任何建议,我们将不胜感激


提前感谢。

Amazon CloudWatch为Amazon S3存储桶提供了每日存储指标,但正如您所提到的,这些指标是针对整个存储桶的,而不是文件夹级别的

可以提供每日CSV文件,列出所有对象。您可以将这些信息加载到数据库或使用Amazon Athena查询内容

如果您需要比每日分辨率更高的存储指标,则需要自己跟踪此信息。这可以通过以下方式实现:

  • 一个Amazon S3事件,在创建或删除对象时触发AWS Lambda函数
  • 接收此信息并更新数据库的AWS Lambda函数
  • 然后,应用程序可以从数据库中检索存储度量

    • 谢谢你的回复,约翰

      然而,我发现了一个解决方案,它使用一个。它根据S3存储桶中文件夹和子文件夹的大小给出度量