Monitoring 超过上下文截止日期-普罗米修斯
我有普罗米修斯配置,有很多工作我都是通过HTTP抓取指标的。但我有一份工作,我需要通过HTTPS来获取度量标准 当我访问: 我可以看到指标。 我在prometheus.yml配置中添加的作业是:Monitoring 超过上下文截止日期-普罗米修斯,monitoring,prometheus,Monitoring,Prometheus,我有普罗米修斯配置,有很多工作我都是通过HTTP抓取指标的。但我有一份工作,我需要通过HTTPS来获取度量标准 当我访问: 我可以看到指标。 我在prometheus.yml配置中添加的作业是: - job_name: 'test-jvm-metrics' scheme: https static_configs: - targets: ['ip:port'] 当我重新启动普罗米修斯时,我可以在目标上看到一个错误,上面写着: 超出上下文截止日期 我读到可能是scr
- job_name: 'test-jvm-metrics'
scheme: https
static_configs:
- targets: ['ip:port']
当我重新启动普罗米修斯时,我可以在目标上看到一个错误,上面写着:
超出上下文截止日期
我读到可能是scrape_timeout
出了问题,但我将其设置为50秒,仍然是相同的问题
什么会导致此问题以及如何解决?
谢谢大家! 我过去也有过同样的问题。在我的案例中,问题在于证书,我通过添加以下内容来解决:
tls_config:
insecure_skip_verify: true
你可以试试,也许会有用。在我的例子中,是IPv6的问题。我已经用ip6tables阻止了IPv6,但它也阻止了prometheus流量。正确的IPv6设置解决了我的问题。在我的情况下,我在Kubernetes部署清单上意外地放置了错误的端口,而不是与之相关的服务以及Prometheus目标中定义的端口。可能默认的scrape\u超时值对您来说太短了
[ scrape_timeout: <duration> | default = 10s ]
请看这里禁用selinux,然后重新启动服务器并再次测试。我遇到了类似的问题,所以我尝试延长我的scrape\u超时时间,但它没有做任何事情-但是,使用promtool解释了问题 我有问题的工作是这样的:
- job_name: 'slow_fella'
scrape_interval: 10s
scrape_timeout: 90s
static_configs:
- targets: ['192.168.1.152:9100']
labels:
alias: sloooow
/etc/prometheus $ promtool check config prometheus.yml
检查您的配置,如下所示:
- job_name: 'slow_fella'
scrape_interval: 10s
scrape_timeout: 90s
static_configs:
- targets: ['192.168.1.152:9100']
labels:
alias: sloooow
/etc/prometheus $ promtool check config prometheus.yml
结果解释了问题并指出了解决方法:
Checking prometheus.yml
FAILED: parsing YAML file prometheus.yml: scrape timeout greater than scrape interval for scrape config with job name "slow_fella"
只需确保刮擦超时足够长,以适应所需的刮擦间隔。当
prometheus
服务器无法接触到刮擦端点时,可能会发生这种情况,可能是由于防火墙拒绝规则。只需检查一下在浏览器中使用:9100
(此处9100
是运行端口的节点导出器服务),然后检查您是否仍然可以访问?将超时时间增加到1m有助于我解决类似问题它对我不起作用。我已经试着把tls_配置标签。但问题仍然是一样的:(