Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/kubernetes/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Parallel processing 如何为处理文件集合的并行作业设置Kubernetes_Parallel Processing_Kubernetes_Jobs_Volume_Persistent - Fatal编程技术网

Parallel processing 如何为处理文件集合的并行作业设置Kubernetes

Parallel processing 如何为处理文件集合的并行作业设置Kubernetes,parallel-processing,kubernetes,jobs,volume,persistent,Parallel Processing,Kubernetes,Jobs,Volume,Persistent,因此,我基本上在寻找能够为我指明正确方向的人,来设置Kubernetes,以便对许多工作项执行公共计算,其中每个工作项都是一个单独的文件 我一直在阅读文档,它似乎表明这是可能的,示例中显示了单词队列并简单地打印单词,但是,我在使用持久卷时遇到了问题 我最终需要的是一个部署,它将获取一个包含数据点的大文件,并将其拆分为多个文件然后我想让作业对象执行几个pod,每个文件一个,在将文件传递回部署进行后期处理之前执行计算。 我很难找到如何传输文件的方法,据我所知,一个PersistentVolume似乎

因此,我基本上在寻找能够为我指明正确方向的人,来设置Kubernetes,以便对许多工作项执行公共计算,其中每个工作项都是一个单独的文件

我一直在阅读文档,它似乎表明这是可能的,示例中显示了单词队列并简单地打印单词,但是,我在使用持久卷时遇到了问题

我最终需要的是一个部署,它将获取一个包含数据点的大文件,并将其拆分为多个文件然后我想让作业对象执行几个pod,每个文件一个,在将文件传递回部署进行后期处理之前执行计算。

我很难找到如何传输文件的方法,据我所知,一个PersistentVolume似乎不能一次绑定到多个pod那么如何将文件传递给作业中的单个pod?

如有任何建议或一般指导,将不胜感激

PersistentVolume不能一次绑定到多个pod

PV是否在节点/吊舱之间共享(或不共享)取决于;并非所有PV都普遍绑定到一个节点/吊舱


正如该页上的图表所示,有许多PV技术可以容忍
ReadWriteMany
,其中最著名的是NFS

您是否已经研究过Hadoop或Spark,因为它们确实是为您所描述的问题而设计的。最后,我使用了AzureFile,这足以满足我的需要。