负载平衡在Kubernetes中的应用

负载平衡在Kubernetes中的应用,kubernetes,load-balancing,Kubernetes,Load Balancing,假设我有两个部署,其中包含一个后端应用程序的两个实例。(而不是使用一个部署和多个副本,因为它们需要进行不同的配置) 你们将如何在两者之间进行负载平衡?经典的方法是使用两个后端设置HAProxy。在库伯内特斯的背景下,这听起来正确吗?是否有更好的方法在一个入口控制器资源上公开两个部署?您可以定义一个由确定的。对服务的请求将分布在部署中(与入口相同) 例如: apiVersion: v1 kind: Service metadata: labels: app: my-deployment

假设我有两个部署,其中包含一个后端应用程序的两个实例。(而不是使用一个部署和多个副本,因为它们需要进行不同的配置)

你们将如何在两者之间进行负载平衡?经典的方法是使用两个后端设置HAProxy。在库伯内特斯的背景下,这听起来正确吗?是否有更好的方法在一个入口控制器资源上公开两个部署?

您可以定义一个由确定的。对服务的请求将分布在部署中(与入口相同)

例如:

apiVersion: v1
kind: Service
metadata:
  labels:
    app: my-deployments
spec:
  ports:
  - port: 80
  selector:
    app: my-deployments

理想情况下,您应该使用多个副本运行一个部署。定义选择后端吊舱的服务对象。服务对象以循环方式自动负载平衡后端吊舱

如果您想要负载平衡多个部署对象,那么为部署、服务A和服务B分别定义一个服务。您应该运行ha代理负载平衡服务A和服务B之间的流量


我们建议你选择第一种方法,除非你有一个有效的理由来考虑第二种方法

,并且在后端循环轮转意义上的服务负载平衡取决于入口实现,但通常是肯定的。