pod事件显示正在kubernetes中删除persistentvolumeclaim“flink-pv-claim-11”,但绑定成功

pod事件显示正在kubernetes中删除persistentvolumeclaim“flink-pv-claim-11”,但绑定成功,kubernetes,Kubernetes,我正在将persistentvolumeclaim绑定到我工作的pod中,它显示: persistentvolumeclaim "flink-pv-claim-11" is being deleted 但持久性卷声明是存在的,并且绑定成功 pod没有日志输出。我该怎么做才能解决这个问题?这是yaml的工作: apiVersion: batch/v1 kind: Job metadata: name: flink-jobmanager-1.11 spec: templ

我正在将persistentvolumeclaim绑定到我工作的pod中,它显示:

persistentvolumeclaim "flink-pv-claim-11" is being deleted
但持久性卷声明是存在的,并且绑定成功

pod没有日志输出。我该怎么做才能解决这个问题?这是yaml的工作:

apiVersion: batch/v1
kind: Job
metadata:
  name: flink-jobmanager-1.11
spec:
  template:
    metadata:
      labels:
        app: flink
        component: jobmanager
    spec:
      restartPolicy: OnFailure
      containers:
        - name: jobmanager
          image: flink:1.11.0-scala_2.11
          env:
          args: ["standalone-job", "--job-classname", "com.job.ClassName", <optional arguments>, <job arguments>] # optional arguments: ["--job-id", "<job id>", "--fromSavepoint", "/path/to/savepoint", "--allowNonRestoredState"]
          ports:
            - containerPort: 6123
              name: rpc
            - containerPort: 6124
              name: blob-server
            - containerPort: 8081
              name: webui
          livenessProbe:
            tcpSocket:
              port: 6123
            initialDelaySeconds: 30
            periodSeconds: 60
          volumeMounts:
            - name: flink-config-volume
              mountPath: /opt/flink/conf
            - name: job-artifacts-volume
              mountPath: /opt/flink/usrlib
            - name: job-artifacts-volume
              mountPath: /opt/flink/data/job-artifacts
          securityContext:
            runAsUser: 9999  # refers to user _flink_ from official flink image, change if necessary
      volumes:
        - name: flink-config-volume
          configMap:
            name: flink-1.11-config
            items:
              - key: flink-conf.yaml
                path: flink-conf.yaml
              - key: log4j-console.properties
                path: log4j-console.properties
        - name: job-artifacts-volume
          persistentVolumeClaim:
            claimName: flink-pv-claim-11

确保已删除与此PVC关联的作业。如果任何其他作业/吊舱正在运行并使用此pvc,则在删除作业/吊舱之前,您无法删除pvc

要查看当前正在使用的PVC资源,请尝试运行:


kubectl get pods-all namespaces-o=json | jq-c\'。items[]{name:.metadata.name,namespace:.metadata.namespace,claimName:.spec.volumes[]| select具有persistentVolumeClaim.persistentVolumeClaim.claimName}'

确保删除与此PVC关联的作业。如果任何其他作业/吊舱正在运行并使用此pvc,则在删除作业/吊舱之前,您无法删除pvc

要查看当前正在使用的PVC资源,请尝试运行:


kubectl get pods-all namespaces-o=json | jq-c\'.items[]{name:.metadata.name,namespace:.metadata.namespace,claimName:.spec.volumes[]| select具有persistentVolumeClaim.persistentVolumeClaim.claimName}

您有两个卷名为作业卷,这可能会引起一些混乱。

您有两个名为job artifacts volume的卷数,这可能会引起一些混乱。

如何查看现在使用PVC的资源?@DashrathMundkar@Dolphin试试这个kubectl get pods-all namespace-o=json | jq-c\'。items[]{name:.metadata.name,namespace:.metadata.namespace,claimName:.spec.volumes[]| select具有persistentVolumeClaim.persistentVolumeClaim.claimName}'按照您的指示,我将删除占用PVC的挂起资源并重新创建该资源并正常工作,谢谢。@Dashrath Mundkar如何查看哪个资源正在使用PVC?@DashrathMundkar@Dolphin试试这个kubectl get pods-all namespace-o=json | jq-c\'。items[]{name:.metadata.name,namespace:.metadata.namespace,claimName:.spec.volumes[]| select具有persistentVolumeClaim.persistentVolumeClaim.claimName}“按照您的指示,我将删除占用PVC的挂起资源,并重新创建该资源并工作,谢谢。@Dashrath Mundkaries,这是我的错误。我将删除一个。谢谢您指出它。@David Anderson是的,这是我的错误。我将删除一个。谢谢您指出它。@David Anderson”