多GPU alexnet googlenet tensorflow

多GPU alexnet googlenet tensorflow,tensorflow,Tensorflow,我正在寻找一个多GPU现货算法alexnet和googlenet在tensorflow与我的数据。我发现很多基准代码,比如convnet bench。但没有什么能满足我上述的需要。例如,在caffe的案例中,我只是简单地运行 caffe-train--solver=googlenet.prototxt--gpu=0,1,2,3,4,5,6,7 类似地,在CNTK的情况下,我运行 mpiexec-n python AlexNet\u ImageNet\u Distributed.py-datadi

我正在寻找一个多GPU现货算法alexnet和googlenet在tensorflow与我的数据。我发现很多基准代码,比如convnet bench。但没有什么能满足我上述的需要。例如,在caffe的案例中,我只是简单地运行

caffe-train--solver=googlenet.prototxt--gpu=0,1,2,3,4,5,6,7

类似地,在CNTK的情况下,我运行

mpiexec-n python AlexNet\u ImageNet\u Distributed.py-datadir myimages/

MXNet还提供了运行alexnet和googlenet的更简单接口

我还研究了tensorflow的slim

DATASET_DIR=/tmp/imagenet
TRAIN_DIR=/tmp/train_logs
python train_image_classifier.py \
    --train_dir=${TRAIN_DIR} \
    --dataset_name=imagenet \
    --dataset_split_name=train \
    --dataset_dir=${DATASET_DIR} \
    --model_name=inception_v3
但目前尚不清楚在使用多个gpu的部署模型中要更改什么


然而,在tensorflow中,我找不到任何现成的东西,只需要在多个gpu中运行gpu的数量和训练图像路径。是否有现成的python/c++代码可供我使用,或者我是否需要通过扩展tensorflow中的cifar_10_multi_gpu示例自己构建一个

通过导出CUDA_VISIBLE_devices=0,1,2,3,