Docker 正在尝试访问数据库用户密码

Docker 正在尝试访问数据库用户密码,docker,kubernetes,Docker,Kubernetes,我继承了Kubernetes/Docker的设置。我正试图在一个单独的集群上完全按照原样(使用一个新名称)重新创建一个开发环境。对不起,如果我的问题有点无知的话,虽然我基本上都学过库伯内特斯/多克,但我对它还是相当陌生的 我已经将所有信息复制到集群中,并通过kubectl和旧YAML启动了它我也在使用旧图像文件,该文件应包含我所知的相关秘密 然而,我得到了一个关于丢失的秘密的错误,db user pass 我已经检查了我的状态存储中包含的机密目录中的KOP(在S3上) 我到底误解了什么?是不是K

我继承了Kubernetes/Docker的设置。我正试图在一个单独的集群上完全按照原样(使用一个新名称)重新创建一个开发环境。对不起,如果我的问题有点无知的话,虽然我基本上都学过库伯内特斯/多克,但我对它还是相当陌生的

我已经将所有信息复制到集群中,并通过kubectl和旧YAML启动了它我也在使用旧图像文件,该文件应包含我所知的相关秘密

然而,我得到了一个关于丢失的秘密的错误,db user pass

我已经检查了我的状态存储中包含的机密目录中的KOP(在S3上)

我到底误解了什么?是不是Kubernetes正试图根据my YAML中的值分配变量,该值也在Docker图像上设置,但Kubernetes不可用?我是否应该将所有机密从一个pod手动复制到另一个pod(或者导出到YAML并包含在我的应用程序中)

我强烈猜测,将export+放入我现有的设置中可能是将所有凭证提供给pod的最佳方式


这里欢迎您提供任何指导或想法。

您能检查一下您的旧集群中是否有一个名为“db用户通行证”的秘密吗

您可以通过以下方式进行检查: ubuntu@sal-k-m:~$kubectl获得秘密

或者(如果它位于不同的命名空间中)

ubuntu@sal-k-m:~$kubectl获取机密-网络

如果这个秘密存在,那么您还需要——导出它并在新集群中配置它

kubectl get secrets-nweb-o yaml--export>db-user-pass.yaml

你可以在这份文件中找到更多关于这个秘密的细节

 Warning  FailedScheduling       22m (x3 over 22m)  default-scheduler                                    No nodes are available that match all of the predicates: Insufficient memory (2), PodToleratesNodeTaints (1).
  Normal   Scheduled              22m                default-scheduler                                    Successfully assigned name-keycloak-7c4c57cbdf-9g2n2 to ip-ip.address.goes.here.us-east-2.compute.internal
  Normal   SuccessfulMountVolume  22m                kubelet, ip-ip.address.goes.here.us-east-2.compute.internal  MountVolume.SetUp succeeded for volume "default-token-2vb5x"
  Normal   Pulled                 21m (x6 over 22m)  kubelet, ip-ip.address.goes.here.us-east-2.compute.internal  Successfully pulled image "image.location.amazonaws.com/dev-name-keycloak"
  Warning  Failed                 21m (x6 over 22m)  kubelet, ip-ip.address.goes.here.us-east-2.compute.internal  Error: secrets "db-user-pass" not found
  Warning  FailedSync             21m (x6 over 22m)  kubelet, ip-ip.address.goes.here.us-east-2.compute.internal  Error syncing pod
  Normal   Pulling                2m (x90 over 22m)  kubelet, ip-ip.address.goes.here.us-east-2.compute.internal  pulling image "image.location.amazonaws.com/dev-name-keycloak"