Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/kubernetes/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Kubernetes分析作业可以在工作流中链接在一起吗?_Kubernetes_Workflow_Pipeline_Jobs_Data Science - Fatal编程技术网

Kubernetes分析作业可以在工作流中链接在一起吗?

Kubernetes分析作业可以在工作流中链接在一起吗?,kubernetes,workflow,pipeline,jobs,data-science,Kubernetes,Workflow,Pipeline,Jobs,Data Science,阅读Kubernetes的“从运行到完成”文档,它说作业可以并行运行,但是否可以将一系列应按顺序(并行和/或非并行)运行的作业链接在一起 还是由用户使用PubSub消息服务跟踪哪些作业已完成并触发下一个作业?我过去曾在PodSpec下使用initContainers来解决以下问题: 在此处查看使用“depends”关键字链接容器也是一个选项: 总体而言,没有。请查看类似于此的内容。作业对象为您提供了一种非常简单的方法来运行容器,直到容器完成为止,仅此而已。并行性在于,您可以运行多个副本,这不

阅读Kubernetes的“从运行到完成”文档,它说作业可以并行运行,但是否可以将一系列应按顺序(并行和/或非并行)运行的作业链接在一起



还是由用户使用PubSub消息服务跟踪哪些作业已完成并触发下一个作业?

我过去曾在PodSpec下使用initContainers来解决以下问题:

在此处查看使用“depends”关键字链接容器也是一个选项:


总体而言,没有。请查看类似于此的内容。作业对象为您提供了一种非常简单的方法来运行容器,直到容器完成为止,仅此而已。并行性在于,您可以运行多个副本,这不是一个完整的工作流管理系统:)

无法使用Kubernetes核心API对象管理作业工作流

  • Argo Workflow看起来是一个有趣的工具,用于管理Kubernetes内部的工作流:。
    • 看起来它可以处理Kubernetes作业工作流:
    • 在CNCF孵化器中:
其他备选方案包括:

  • 气流:

这篇文档可能也会有所帮助:

近3年后,我会在混合中加入另一个答案

Kubeflow管道


实际上在引擎盖下使用了Argo。

看看。原来kubeflow管道使用的是Argo。保持清醒。
apiVersion: v1
kind: Pod
metadata:
  name: myapp-pod
  labels:
    app: myapp
spec:
  containers:
  - name: myapp-container
    image: busybox
    command: ['sh', '-c', 'echo The app is running! && sleep 3600']
  initContainers:
  - name: init-myservice
    image: busybox
    command: ['sh', '-c', 'until nslookup myservice; do echo waiting for myservice; sleep 2; done;']
  - name: init-mydb
    image: busybox
    command: ['sh', '-c', 'until nslookup mydb; do echo waiting for mydb; sleep 2; done;']