Amazon eks Fargate将自动增加内存请求约200Mi

Amazon eks Fargate将自动增加内存请求约200Mi,amazon-eks,aws-fargate,Amazon Eks,Aws Fargate,我将AWS EKS与fargate一起使用,在我的部署中,我将resources.requests.memory设置为512 Mi,但fargate节点仍将请求1Gi。所以我在普罗米修斯库伯州寻找那个吊舱,它显示吊舱请求762英里。 因为762-512=250,所以我检查了其他部署,发现它请求的内存总是比我定义的要多大约200 Mi。 这是k8s问题,还是fargate规则 resources: limits: memory: 512Mi cpu: "0.25" re

我将AWS EKS与fargate一起使用,在我的部署中,我将resources.requests.memory设置为512 Mi,但fargate节点仍将请求1Gi。所以我在普罗米修斯库伯州寻找那个吊舱,它显示吊舱请求762英里。 因为762-512=250,所以我检查了其他部署,发现它请求的内存总是比我定义的要多大约200 Mi。 这是k8s问题,还是fargate规则

resources:
limits:
  memory: 512Mi
  cpu: "0.25"
requests:
  memory: 512Mi
  cpu: "0.25"
更新请求到250英里后:

resources:
limits:
  memory: 500Mi
  cpu: "0.25"
requests:
  memory: 250Mi
  cpu: "0.25"

我在书中找到了解释

当前版本的仪表板不考虑容器的请求。这是因为kube状态度量不公开initContainers请求的资源

如果没有长时间运行的容器请求任何资源,那么图中的requests度量将不存在。请求指标不应与pod拥有的总CPU和内存相混淆。pod的CPU和内存由pod的计算远门配置决定,如上所述

如果我请求512 Mi,fargate节点将为init容器请求另一个250 Mi, 我最后的内存请求是762英里。 因此,如果我想保持所配置的远门容量为0.5GB,则请求内存不应大于262 Mi

我认为这是不合理的

Memory Request: 762 Mi
resources:
limits:
  memory: 500Mi
  cpu: "0.25"
requests:
  memory: 250Mi
  cpu: "0.25"
Annotations:          CapacityProvisioned: 0.25vCPU 0.5GB
sum(kube_pod_container_resource_requests{resource="memory"}+262144000)