Tensorflow 关于grpc+;gdr和grpc+;分布式时态流中的动词

Tensorflow 关于grpc+;gdr和grpc+;分布式时态流中的动词,tensorflow,grpc-python,distributed-tensorflow,Tensorflow,Grpc Python,Distributed Tensorflow,当我使用分布式tensorflow时,grpc+gdr比grpc+动词更差,但是nv_peer_mem被加载,我不知道grpc+动词和grpc+gdr的区别是什么?有人能帮我吗? 一些输出如下所示: root@s36-2288H-V5:~#/etc/init.d/nv#u peer#u mem status nv_peer_mem模块已加载 我的开始代码如下: python /root/benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.

当我使用分布式tensorflow时,grpc+gdr比grpc+动词更差,但是nv_peer_mem被加载,我不知道grpc+动词和grpc+gdr的区别是什么?有人能帮我吗? 一些输出如下所示: root@s36-2288H-V5:~#/etc/init.d/nv#u peer#u mem status

nv_peer_mem模块已加载

我的开始代码如下:

python /root/benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py
--server_protocol=grpc+verbs
--model=vgg16 --variable_update=parameter_server
--batch_size=64 --num_batches=50 --num_warmup_batches=10
--local_parameter_device=gpu --num_gpus=1
--job_name=ps --task_index=0
--ps_hosts=172.168.30.25:10011
--worker_hosts=172.168.30.26:50012 &
当我设置--server_protocol=grpc+gdr时,性能更差