与docker swarm中的所有节点共享大文件

与docker swarm中的所有节点共享大文件,docker,docker-compose,docker-swarm,Docker,Docker Compose,Docker Swarm,目前,我正在迁移到Docker Swarm,并已开始使用Docker configs卸载大部分配置文件,但我还有一个文件,即我的tileserver使用的几个GBs。现在,我有一个1 master/4 worker,我正在寻找一种方法,与群中的所有节点共享该文件,以便为tileserver崩溃做好准备 有什么想法吗?如果您需要高可用性数据,那么就需要在节点(或服务器)之间分发数据的解决方案 一种方法是在swarm上部署一个对象存储解决方案—类似minio的东西为您提供了一个s3兼容的REST a

目前,我正在迁移到Docker Swarm,并已开始使用Docker configs卸载大部分配置文件,但我还有一个文件,即我的tileserver使用的几个GBs。现在,我有一个1 master/4 worker,我正在寻找一种方法,与群中的所有节点共享该文件,以便为tileserver崩溃做好准备


有什么想法吗?

如果您需要高可用性数据,那么就需要在节点(或服务器)之间分发数据的解决方案

一种方法是在swarm上部署一个对象存储解决方案—类似minio的东西为您提供了一个s3兼容的REST api,当在擦除编码模式下部署至少4个磁盘时,允许1个磁盘用于写入,2个磁盘用于读取(假设每个磁盘上有一个节点)

如果重新调整应用程序以使用对象存储不在范围内,那么调查一下glusterfs之类的东西,您希望将其安装在金属上,而不是docker上。glusterfs将为您提供一个在3个节点上具有良好HA的统一文件系统,您可以动态添加磁盘

显然,minio期望你的应用程序使用S3API访问它的文件。使用glusterfs,您需要在主机位置装载gfs卷,然后再装载卷以访问该网络存储。 除非您愿意在rex ray和其他社区支持的docker卷驱动程序的世界中漫游,这些驱动程序多年来都没有更新过,或者是由一个家伙为了好玩而维护的,这可以为您的非生产docker swarm带来基于glusterfs的docker卷的一流支持