Python 2.7 tensorflow slim并行训练和评估回路;单个设备
我对使用tensorflow slim库(tf.contrib.slim)在训练期间定期评估(n)(整个)测试集上的模型性能感兴趣。文档非常清楚,slim.evaluation.evaluation\u循环是一条可行之路,而且看起来很有希望。问题是我没有备用的第二个gpu,这个模型参数占用了整个gpu的内存,我想做并行计算 例如,如果我有2个gpu,我可以在第一个gpu上运行以“slim.learning.train()”结尾的python脚本,在第二个gpu上运行以“slim.evaluation.evaluation_loop()”结尾的python脚本Python 2.7 tensorflow slim并行训练和评估回路;单个设备,python-2.7,tensorflow,tensorflow-gpu,tf-slim,Python 2.7,Tensorflow,Tensorflow Gpu,Tf Slim,我对使用tensorflow slim库(tf.contrib.slim)在训练期间定期评估(n)(整个)测试集上的模型性能感兴趣。文档非常清楚,slim.evaluation.evaluation\u循环是一条可行之路,而且看起来很有希望。问题是我没有备用的第二个gpu,这个模型参数占用了整个gpu的内存,我想做并行计算 例如,如果我有2个gpu,我可以在第一个gpu上运行以“slim.learning.train()”结尾的python脚本,在第二个gpu上运行以“slim.evaluati
是否有一种方法可以为两个任务管理1个gpu的资源?我想到了tf.train.Supervisor,但我真的不知道。您可以使用以下代码划分GPU的使用情况 您可以分别设置用于培训和评估的GPU分数。下面的代码表示该进程拥有30%的内存。
gpu\u选项=tf.gpu选项(每个进程\u gpu\u内存\u分数=0.3000)
sess=tf.Session(config=tf.ConfigProto(gpu_选项=gpu_选项))
sess.run(tf.app.run())
您是否打算运行两个程序?还是一个程序两次?