Kubernetes中的Flink会话集群和作业提交
我们的团队在K8S集群中建立了一个Flink会话集群。我们选择Flink会话集群而不是作业集群,因为我们有许多不同的Flink作业,所以我们希望将Flink的开发和部署与我们的作业分离。我们的Flink设置包含:Kubernetes中的Flink会话集群和作业提交,kubernetes,apache-flink,Kubernetes,Apache Flink,我们的团队在K8S集群中建立了一个Flink会话集群。我们选择Flink会话集群而不是作业集群,因为我们有许多不同的Flink作业,所以我们希望将Flink的开发和部署与我们的作业分离。我们的Flink设置包含: 单个JobManager作为K8S吊舱,无高可用性(HA)设置 多个TaskManager,每个都作为一个K8S吊舱 我们在一个单独的存储库中开发工作,并在代码合并时部署到Flink集群 现在,我们注意到在K8S中作为pod的JobManager可以随时被K8S重新部署。因此,一旦
- 单个JobManager作为K8S吊舱,无高可用性(HA)设置
- 多个TaskManager,每个都作为一个K8S吊舱
有人对此有任何评论或建议吗?谢谢 是的,Flink HA将解决您关心的JobManager故障切换问题。新的作业管理器将从HA存储中获取关于正在(应该)运行的作业、它们的JAR、检查点状态等的信息 还请注意,Flink 1.10包含了对Kubernetes会话集群的本机支持的测试版。看