Linux Docker容器(Spark容器)安装本地卷后未运行?
我正在尝试构建一个spark docker独立集群,其中包含一个分别用于主集群和从集群的容器 所以我总共创造了3张这样的图片 星火大师 火花源 火花提交 因此,我使用一个数据存储容器来装载本地目录,同时构建主目录和从目录 下面是用于构建与数据存储连接的主容器的命令Linux Docker容器(Spark容器)安装本地卷后未运行?,linux,docker,apache-spark,pyspark,Linux,Docker,Apache Spark,Pyspark,我正在尝试构建一个spark docker独立集群,其中包含一个分别用于主集群和从集群的容器 所以我总共创造了3张这样的图片 星火大师 火花源 火花提交 因此,我使用一个数据存储容器来装载本地目录,同时构建主目录和从目录 下面是用于构建与数据存储连接的主容器的命令 sudo docker images data_ubuntu 现在通过安装带有数据的本地目录来构建spark master sudo docker run -d -p 8080:8080 -p 7077:7077 --volume
sudo docker images
data_ubuntu
现在通过安装带有数据的本地目录来构建spark master
sudo docker run -d -p 8080:8080 -p 7077:7077 --volumes-from /home/ubuntu:/data data_ubuntu --name master hello/spark-master
还尝试了其他方法
sudo docker create --name master hello/spark-master --privileged -v /home/ubuntu:/data -i -t data_ubuntu /bin/bash
上面的命令返回成功哈希,但当我运行
docker ps
或
在上述两种情况下,容器未运行,状态显示exited
我需要为spark从属节点挂载相同的目录,并且需要使用spark submit通过调用挂载的目录来执行作业
不明白这里出了什么问题
谢谢你的帮助
谢谢
docker ps -a