Tensorflow 如何在google colab中使用TPU

Tensorflow 如何在google colab中使用TPU,tensorflow,keras,google-colaboratory,google-cloud-tpu,Tensorflow,Keras,Google Colaboratory,Google Cloud Tpu,Google colab在运行时加速器中引入了TPU。我找到了一个例子,如何在中使用TPU。但这个例子在谷歌合作实验室上不起作用。它卡在下面的线路上: tf.contrib.tpu.keras_to_tpu_model(model, strategy=strategy) 当我打开colab时,它返回TPU加速器的[]。有人知道如何在colab上使用TPU吗 以下是一个特定于Colab的TPU示例: 关键线路是连接到TPU本身的线路: # This address identifies the

Google colab在运行时加速器中引入了TPU。我找到了一个例子,如何在中使用TPU。但这个例子在谷歌合作实验室上不起作用。它卡在下面的线路上:

tf.contrib.tpu.keras_to_tpu_model(model, strategy=strategy)
当我打开colab时,它返回TPU加速器的
[]
。有人知道如何在colab上使用TPU吗


以下是一个特定于Colab的TPU示例:

关键线路是连接到TPU本身的线路:

# This address identifies the TPU we'll use when configuring TensorFlow.
TPU_WORKER = 'grpc://' + os.environ['COLAB_TPU_ADDR']

...

tpu_model = tf.contrib.tpu.keras_to_tpu_model(
training_model,
strategy=tf.contrib.tpu.TPUDistributionStrategy(
    tf.contrib.cluster_resolver.TPUClusterResolver(TPU_WORKER)))

(与GPU不同,TPU的使用需要与TPU worker的显式连接。因此,您需要调整培训和推理定义,以观察加速。)

我尝试使用TPU运行时使用keras培训模型,但速度非常慢。GPU运行时在2分钟内培训的内容,TPU运行时在58分钟内培训的内容。我也在等待修复。要使用TPU,uou需要使用下面答案中的配方显式连接到它。(不幸的是,TPU的使用不像GPU那样是自动的。)谢谢你的回答。我添加了TPU_工作线并解决了运行错误。但是我没有得到任何显著的改善。太慢了。我的建议是问一个单独的问题,其中包括你笔记本的链接。通常,现有模型需要进行一些调整以加快速度,并且很容易在CPU而不是TPU上执行关键操作的情况下结束。谢谢,这是我代码中的一个错误,与TPU无关。此示例仅说明如何在keras上执行此操作。“纯”tensorflow或pytorch有什么可能的方法吗?我注意到,与CPU和TPU相比,GPU环境下的网络速度更快。我注意到从Kaggle下载数据集。