Python TensorFlow是否将一台机器的所有CPU视为一个设备?

Python TensorFlow是否将一台机器的所有CPU视为一个设备?,python,tensorflow,Python,Tensorflow,从我运行的实验来看,TensorFlow似乎在一台机器上自动使用所有CPU。此外,TensorFlow似乎将所有cpu都称为/cpu:0 我是对的,只有一台机器的不同GPU被索引并作为单独的设备查看,但是一台机器上的所有CPU都被视为单个设备 从TensorFlows的角度来看,一台机器有多个CPU可以查看它吗 默认情况下,进程可用的所有cpu都聚集在cpu:0设备下 mrry给出的答案显示了如何创建逻辑设备,如/cpu:1,/cpu:2 在tensorflow中,似乎没有将逻辑设备固定到特定物

从我运行的实验来看,TensorFlow似乎在一台机器上自动使用所有CPU。此外,TensorFlow似乎将所有cpu都称为/cpu:0

我是对的,只有一台机器的不同GPU被索引并作为单独的设备查看,但是一台机器上的所有CPU都被视为单个设备


从TensorFlows的角度来看,一台机器有多个CPU可以查看它吗

默认情况下,进程可用的所有cpu都聚集在
cpu:0
设备下

mrry给出的答案显示了如何创建逻辑设备,如
/cpu:1
/cpu:2

在tensorflow中,似乎没有将逻辑设备固定到特定物理核心或能够使用NUMA节点的工作功能


一种可能的解决方法是在一台机器上使用分布式TensorFlow和多个进程,并在Linux上使用
任务集
将特定进程固定到特定内核

您能给我一个提示(源代码位置)吗?TensorFlow使用“一个”CPU的多个内核来运行图形的一个分区?因为据我所知,TF将图形划分为多个分区,每个分区将由其相应的执行器在一个设备上运行。但我的问题是多核cpu如何执行分区?我希望TensorFlow不要看到/知道除一个核以外的其他核。我该怎么做?