Tensorflow 如何分配多个TPU并调整代码以在所有TPU上运行

Tensorflow 如何分配多个TPU并调整代码以在所有TPU上运行,tensorflow,tpu,Tensorflow,Tpu,作为我研发的一部分,我可以访问多个TPU,但我找不到如何为我的培训目的将它们分配在一起的文档,无论是节点方面还是代码方面。文档中说了ctpu up-zone MY_zone_CHOICE,但这个命令只分配一个TPU。同样,如果我想使用多个TPU,我应该在代码中添加哪些更改?到目前为止,我已经使用这个调用tf.contrib.cluster\u resolver.TPUClusterResolver()来检查TPU,应该更改什么(如果有)来检查我是否可以访问多个TPU?甚至支持多个TPU吗?TPU

作为我研发的一部分,我可以访问多个TPU,但我找不到如何为我的培训目的将它们分配在一起的文档,无论是节点方面还是代码方面。文档中说了
ctpu up-zone MY_zone_CHOICE
,但这个命令只分配一个TPU。同样,如果我想使用多个TPU,我应该在代码中添加哪些更改?到目前为止,我已经使用这个调用
tf.contrib.cluster\u resolver.TPUClusterResolver()
来检查TPU,应该更改什么(如果有)来检查我是否可以访问多个TPU?

甚至支持多个TPU吗?TPU v3 pod提供了一个TPU插槽。但我不知道我们是否可以同时请求多个v2 TPU,并将它们一起用于培训。这就是我问的原因。我同意@Valentin。即使在提出此问题1年后,也不太容易找到关于此问题的任何文档。是否支持多个TPU?TPU v3 pod提供了一个TPU插槽。但我不知道我们是否可以同时请求多个v2 TPU,并将它们一起用于培训。这就是我问的原因。我同意@Valentin。即使在提出这个问题一年后,也不太容易找到关于这个问题的任何文档