Python 3.x 如何在多机多gpu环境下运行TF learn(skflow)Kmeans集群?

Python 3.x 如何在多机多gpu环境下运行TF learn(skflow)Kmeans集群?,python-3.x,tensorflow,distributed-computing,k-means,skflow,Python 3.x,Tensorflow,Distributed Computing,K Means,Skflow,是否有任何示例/文档说明如何在多机器和多GPU环境中实现skflow(tf.contrib.learn) 我想在多机器和多GPU环境中使用skflow(tf.contrib.learn)实现。我应该如何继续?理想情况下,您应该运行群集管理器(Kubernetes、Mesos),否则设置多机培训相当困难 有关核心TensorFlow示例,请参见此处(docker/kubernetes目录下): 我们将很快更新那里的示例,以使用估计器和多GPU设置

是否有任何示例/文档说明如何在多机器和多GPU环境中实现skflow(tf.contrib.learn)


我想在多机器和多GPU环境中使用skflow(tf.contrib.learn)实现。我应该如何继续?

理想情况下,您应该运行群集管理器(Kubernetes、Mesos),否则设置多机培训相当困难

有关核心TensorFlow示例,请参见此处(docker/kubernetes目录下):

我们将很快更新那里的示例,以使用估计器和多GPU设置