Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/kubernetes/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Kubernetes OutOfDisk:未正确销毁吊舱_Kubernetes - Fatal编程技术网

Kubernetes OutOfDisk:未正确销毁吊舱

Kubernetes OutOfDisk:未正确销毁吊舱,kubernetes,Kubernetes,我使用的是v1.0.3,kubect get pods显示了数百个处于OutOfDisk状态的Pod 程式码功能 aws-domains-xps5u 0/1 OutOfDisk 0 1h aws-domains-xxs0w 0/1 OutOfDisk 0 46m aws-domains-xxw1a 0/1 OutOfDisk 0 1h aws-domains-

我使用的是v1.0.3,kubect get pods显示了数百个处于OutOfDisk状态的Pod

程式码功能

aws-domains-xps5u       0/1       OutOfDisk   0          1h
aws-domains-xxs0w       0/1       OutOfDisk   0          46m
aws-domains-xxw1a       0/1       OutOfDisk   0          1h
aws-domains-xy3oh       0/1       OutOfDisk   0          1h
aws-domains-xy980       0/1       OutOfDisk   0          1h
aws-domains-xz0ho       0/1       OutOfDisk   0          1h
aws-domains-xz417       0/1       OutOfDisk   0          1h
aws-domains-y0kux       0/1       OutOfDisk   0          1h
aws-domains-y3bg7       0/1       OutOfDisk   0          1h
aws-domains-y4n11       0/1       OutOfDisk   0          39m
aws-domains-y7w1w       0/1       OutOfDisk   0          38m
aws-domains-y8g22       0/1       OutOfDisk   0          52m
aws-domains-y8zaq       0/1       OutOfDisk   0          1h
aws-domains-ya9x8       0/1       OutOfDisk   0          1h
aws-domains-yauq5       0/1       OutOfDisk   0          1h
aws-domains-yblkl       0/1       OutOfDisk   0          38m

这在某种程度上是按预期工作的,尽管它并不理想。导致这种情况的一系列行动包括:

  • 节点没有足够的磁盘空间,因此他们拒绝了带有OutOfDisk的POD
  • Replication controller创建了更多新的POD以匹配所需数量的副本
  • 调度程序不知道节点的磁盘已用完,并继续为其分配POD
  • (1) -(3)如果情况没有改变(例如,释放磁盘空间或添加新节点),将继续发生。Kubernetes目前不会对终止的pod进行垃圾收集,因此在
    kubectl get pods
    输出中可以看到许多终止的pod

    以下是一些相关的github问题,以更好地处理这种情况:

    • :计划程序不应将POD分配给磁盘外节点
    • :kubernetes应该收获/GC终止的豆荚

    同时,您可能需要检查特定节点,以了解其磁盘不足的原因。

    这在某种程度上是按预期工作的,尽管它并不理想。导致这种情况的一系列行动包括:

  • 节点没有足够的磁盘空间,因此他们拒绝了带有OutOfDisk的POD
  • Replication controller创建了更多新的POD以匹配所需数量的副本
  • 调度程序不知道节点的磁盘已用完,并继续为其分配POD
  • (1) -(3)如果情况没有改变(例如,释放磁盘空间或添加新节点),将继续发生。Kubernetes目前不会对终止的pod进行垃圾收集,因此在
    kubectl get pods
    输出中可以看到许多终止的pod

    以下是一些相关的github问题,以更好地处理这种情况:

    • :计划程序不应将POD分配给磁盘外节点
    • :kubernetes应该收获/GC终止的豆荚
    同时,您可能需要检查特定节点,以了解其磁盘不足的原因