Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/python-2.7/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 2.7 tensorflow slim并行训练和评估回路;单个设备_Python 2.7_Tensorflow_Tensorflow Gpu_Tf Slim - Fatal编程技术网

Python 2.7 tensorflow slim并行训练和评估回路;单个设备

Python 2.7 tensorflow slim并行训练和评估回路;单个设备,python-2.7,tensorflow,tensorflow-gpu,tf-slim,Python 2.7,Tensorflow,Tensorflow Gpu,Tf Slim,我对使用tensorflow slim库(tf.contrib.slim)在训练期间定期评估(n)(整个)测试集上的模型性能感兴趣。文档非常清楚,slim.evaluation.evaluation\u循环是一条可行之路,而且看起来很有希望。问题是我没有备用的第二个gpu,这个模型参数占用了整个gpu的内存,我想做并行计算 例如,如果我有2个gpu,我可以在第一个gpu上运行以“slim.learning.train()”结尾的python脚本,在第二个gpu上运行以“slim.evaluati

我对使用tensorflow slim库(tf.contrib.slim)在训练期间定期评估(n)(整个)测试集上的模型性能感兴趣。文档非常清楚,slim.evaluation.evaluation\u循环是一条可行之路,而且看起来很有希望。问题是我没有备用的第二个gpu,这个模型参数占用了整个gpu的内存,我想做并行计算

例如,如果我有2个gpu,我可以在第一个gpu上运行以“slim.learning.train()”结尾的python脚本,在第二个gpu上运行以“slim.evaluation.evaluation_loop()”结尾的python脚本


是否有一种方法可以为两个任务管理1个gpu的资源?我想到了tf.train.Supervisor,但我真的不知道。

您可以使用以下代码划分GPU的使用情况

您可以分别设置用于培训和评估的GPU分数。下面的代码表示该进程拥有30%的内存。
gpu\u选项=tf.gpu选项(每个进程\u gpu\u内存\u分数=0.3000)
sess=tf.Session(config=tf.ConfigProto(gpu_选项=gpu_选项))

sess.run(tf.app.run())

您是否打算运行两个程序?还是一个程序两次?