Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/kubernetes/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Kubernetes 如何减少普罗米修斯(联邦)刮伤持续时间_Kubernetes_Monitoring_Prometheus - Fatal编程技术网

Kubernetes 如何减少普罗米修斯(联邦)刮伤持续时间

Kubernetes 如何减少普罗米修斯(联邦)刮伤持续时间,kubernetes,monitoring,prometheus,Kubernetes,Monitoring,Prometheus,我有一个普罗米修斯联盟,有两台普罗米修斯服务器——每个库伯内特斯集群一台,一个中央服务器来管理它们 随着时间的推移,刮伤持续时间增加。在某些情况下,刮取持续时间超过超时持续时间,然后指标丢失并发出警报 我试图通过降低指标来缩短擦伤持续时间,但这是一场艰苦的战斗,更像是西西弗斯和普罗米修斯 是否有人知道一种方法可以在不损失指标的情况下减少刮擦时间,并且不必随着时间的推移而减少越来越多的刮擦时间 提前谢谢 Per Prometheus',这些设置确定全局超时和警报规则评估频率: global:

我有一个普罗米修斯联盟,有两台普罗米修斯服务器——每个库伯内特斯集群一台,一个中央服务器来管理它们

随着时间的推移,刮伤持续时间增加。在某些情况下,刮取持续时间超过超时持续时间,然后指标丢失并发出警报

我试图通过降低指标来缩短擦伤持续时间,但这是一场艰苦的战斗,更像是西西弗斯和普罗米修斯

是否有人知道一种方法可以在不损失指标的情况下减少刮擦时间,并且不必随着时间的推移而减少越来越多的刮擦时间

提前谢谢

Per Prometheus',这些设置确定全局超时和警报规则评估频率:

global:
  # How frequently to scrape targets by default.
  [ scrape_interval: <duration> | default = 1m ]

  # How long until a scrape request times out.
  [ scrape_timeout: <duration> | default = 10s ]

  # How frequently to evaluate rules.
  [ evaluation_interval: <duration> | default = 1m ]
全球:
#默认情况下刮取目标的频率。
[刮除间隔:|默认值=1m]
#刮取请求超时的时间。
[刮除超时:|默认值=10s]
#评估规则的频率。
[评估间隔:|默认值=1m]
…对于每个刮削作业,允许设置作业特定值:

#默认情况下分配给临时度量的作业名称。
职位名称:
#从这项工作中刮取目标的频率。
[刮取间隔:|默认=]
#刮取此作业时的每次刮取超时。
[刮除超时:|默认=]
不知道更多关于目标数量和每个目标的指标数量…我可以建议尝试为每个作业配置适当的
scrape\u timeout
,并相应地调整全局
评估间隔

另一种选择,结合上述建议或其本身,可以让普罗米修斯实例专门用于清除不重叠的目标集。因此,可以对普罗米修斯进行分级,并对每组目标设定不同的评估间隔。例如,对于需要更长时间的作业,刮取超时时间越长,评估间隔时间越短(值越高),因此不会影响其他作业

此外,检查出口商是否在一段时间内累积指标,而不是在刮取时仅提供当前读数,从而行为不端-否则,返回给普罗米修斯的内容列表将随着时间的推移不断增加。

Per prometheus',这些设置确定全局超时和警报规则评估频率:

global:
  # How frequently to scrape targets by default.
  [ scrape_interval: <duration> | default = 1m ]

  # How long until a scrape request times out.
  [ scrape_timeout: <duration> | default = 10s ]

  # How frequently to evaluate rules.
  [ evaluation_interval: <duration> | default = 1m ]
全球:
#默认情况下刮取目标的频率。
[刮除间隔:|默认值=1m]
#刮取请求超时的时间。
[刮除超时:|默认值=10s]
#评估规则的频率。
[评估间隔:|默认值=1m]
…对于每个刮削作业,允许设置作业特定值:

#默认情况下分配给临时度量的作业名称。
职位名称:
#从这项工作中刮取目标的频率。
[刮取间隔:|默认=]
#刮取此作业时的每次刮取超时。
[刮除超时:|默认=]
不知道更多关于目标数量和每个目标的指标数量…我可以建议尝试为每个作业配置适当的
scrape\u timeout
,并相应地调整全局
评估间隔

另一种选择,结合上述建议或其本身,可以让普罗米修斯实例专门用于清除不重叠的目标集。因此,可以对普罗米修斯进行分级,并对每组目标设定不同的评估间隔。例如,对于需要更长时间的作业,刮取超时时间越长,评估间隔时间越短(值越高),因此不会影响其他作业


此外,检查出口商是否在一段时间内积累指标,而不是在刮削时提供当前读数,从而行为不端——否则,归还普罗米修斯的物品清单将随着时间的推移不断增加。

在我对普罗米修斯的理解中,数据负载不应对刮削产生任何影响,可能是在请求时,因为它将不得不查看更多数据。。。你是如何创建你的kebernetes的,在哪里(gke,eks,其他…)在我对普罗米修斯的理解中,数据的负载不应该对抓取有任何影响,可能是对请求的影响,因为它将不得不研究更多的数据。。。您是如何创建kebernetes的?在哪里(gke、eks、其他…)