Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/ruby-on-rails-4/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Tensorflow PS设备选择问题_Python_Tensorflow_Distributed - Fatal编程技术网

Python Tensorflow PS设备选择问题

Python Tensorflow PS设备选择问题,python,tensorflow,distributed,Python,Tensorflow,Distributed,我在研究tensorflow, 我正在考虑一些算法来为PS选择合适的设备 根据每个工人的效率和网络带宽等 今天,我在下面的tensorflow主页上找到了一个性能指南 所以在本页中,他们说“在GPU上放置共享参数”可以提高性能 但是,我不知道为什么性能会提高 下面是我的问题。 您如何看待分布式tensorflow中PS的设备选择理念? 如果在异构的机器学习环境中需要很多设备,我认为这会很好,你认为呢 “在GPU上放置共享参数”这是什么意思

我在研究tensorflow, 我正在考虑一些算法来为PS选择合适的设备 根据每个工人的效率和网络带宽等

今天,我在下面的tensorflow主页上找到了一个性能指南 所以在本页中,他们说“在GPU上放置共享参数”可以提高性能

但是,我不知道为什么性能会提高

下面是我的问题。 您如何看待分布式tensorflow中PS的设备选择理念? 如果在异构的机器学习环境中需要很多设备,我认为这会很好,你认为呢

“在GPU上放置共享参数”这是什么意思