Monitoring 超过上下文截止日期-普罗米修斯

Monitoring 超过上下文截止日期-普罗米修斯,monitoring,prometheus,Monitoring,Prometheus,我有普罗米修斯配置,有很多工作我都是通过HTTP抓取指标的。但我有一份工作,我需要通过HTTPS来获取度量标准 当我访问: 我可以看到指标。 我在prometheus.yml配置中添加的作业是: - job_name: 'test-jvm-metrics' scheme: https static_configs: - targets: ['ip:port'] 当我重新启动普罗米修斯时,我可以在目标上看到一个错误,上面写着: 超出上下文截止日期 我读到可能是scr

我有普罗米修斯配置,有很多工作我都是通过HTTP抓取指标的。但我有一份工作,我需要通过HTTPS来获取度量标准

当我访问:

我可以看到指标。 我在prometheus.yml配置中添加的作业是:

- job_name: 'test-jvm-metrics'
    scheme: https
    static_configs:
      - targets: ['ip:port']
当我重新启动普罗米修斯时,我可以在目标上看到一个错误,上面写着:

超出上下文截止日期

我读到可能是
scrape_timeout
出了问题,但我将其设置为50秒,仍然是相同的问题

什么会导致此问题以及如何解决?
谢谢大家!

我过去也有过同样的问题。在我的案例中,问题在于证书,我通过添加以下内容来解决:

 tls_config:
      insecure_skip_verify: true

你可以试试,也许会有用。

在我的例子中,是IPv6的问题。我已经用ip6tables阻止了IPv6,但它也阻止了prometheus流量。正确的IPv6设置解决了我的问题。

在我的情况下,我在Kubernetes部署清单上意外地放置了错误的端口,而不是与之相关的服务以及Prometheus目标中定义的端口。

可能默认的scrape\u超时值对您来说太短了

[ scrape_timeout: <duration> | default = 10s ]

请看这里

禁用selinux,然后重新启动服务器并再次测试。

我遇到了类似的问题,所以我尝试延长我的scrape\u超时时间,但它没有做任何事情-但是,使用promtool解释了问题

我有问题的工作是这样的:

- job_name: 'slow_fella'
  scrape_interval: 10s
  scrape_timeout: 90s
  static_configs:
  - targets: ['192.168.1.152:9100']
    labels:
      alias: sloooow    
/etc/prometheus $ promtool check config prometheus.yml
检查您的配置,如下所示:

- job_name: 'slow_fella'
  scrape_interval: 10s
  scrape_timeout: 90s
  static_configs:
  - targets: ['192.168.1.152:9100']
    labels:
      alias: sloooow    
/etc/prometheus $ promtool check config prometheus.yml
结果解释了问题并指出了解决方法:

Checking prometheus.yml
  FAILED: parsing YAML file prometheus.yml: scrape timeout greater than scrape interval for scrape config with job name "slow_fella"

只需确保刮擦超时足够长,以适应所需的刮擦间隔。

prometheus
服务器无法接触到刮擦端点时,可能会发生这种情况,可能是由于防火墙拒绝规则。只需检查一下在浏览器中使用
:9100
(此处
9100
是运行端口的节点导出器服务),然后检查您是否仍然可以访问?

将超时时间增加到1m有助于我解决类似问题

它对我不起作用。我已经试着把tls_配置标签。但问题仍然是一样的:(