Amazon web services 在ingress nginx控制器前使用负载平衡器
我很难理解与Ingress Nginx一起使用时负载平衡器的作用 我知道负载平衡器在多个节点上分发请求 i、 假设我有两个节点A和B,它们负责处理Amazon web services 在ingress nginx控制器前使用负载平衡器,amazon-web-services,nginx,kubernetes,devops,load-balancing,Amazon Web Services,Nginx,Kubernetes,Devops,Load Balancing,我很难理解与Ingress Nginx一起使用时负载平衡器的作用 我知道负载平衡器在多个节点上分发请求 i、 假设我有两个节点A和B,它们负责处理example.com上的请求 因此,负载平衡器将接受对example.com的请求,并借助定义的算法在它们之间分配 我也了解什么是API网关 i、 例如,假设我有一个order服务和另一个payment服务,这样一个API网关将获得对example.com的请求,它将/orders的请求移交给order服务,并将/payments移交给payment
example.com
上的请求
因此,负载平衡器将接受对example.com
的请求,并借助定义的算法在它们之间分配
我也了解什么是API网关
i、 例如,假设我有一个order
服务和另一个payment
服务,这样一个API网关将获得对example.com
的请求,它将/orders
的请求移交给order
服务,并将/payments
移交给payment
服务
困惑:
Load Balancer(NLB) -> API Gateway -> Services -> order deployment -> which is running two replicas
/orders
A:你为什么需要LB ip?使用LoadBalancer DNS。最后一个非常有用,可以创建指向DNS的CNAME记录。但我不想公开K8s服务,主要是为什么我需要公开所有的服务,我应该只公开API网关?你可以公开想要的K8s服务,就像这个例子-,这是一个更好的例子,但现在找不到。您有2个服务,它们按路径路由,但也可以按主机名路由-