Tensorflow Can';无法使$TPU_NAME环境变量正常工作

Tensorflow Can';无法使$TPU_NAME环境变量正常工作,tensorflow,kaggle,bert-language-model,google-cloud-tpu,Tensorflow,Kaggle,Bert Language Model,Google Cloud Tpu,我是新手!我试图在Kaggle内核上从头开始训练BERT模型。无法使BERT运行\u pretraining.py脚本在TPU上工作。但在CPU上工作良好。我猜问题在于$TPU_NAME环境变量 !python run_pretraining.py \ --input_file='gs://xxxxxxxxxx/*' \ --output_dir=/kaggle/working/model/ \ --do_train=True \ --do_eval=True \ --bert_config_f

我是新手!我试图在Kaggle内核上从头开始训练BERT模型。无法使BERT
运行\u pretraining.py
脚本在TPU上工作。但在CPU上工作良好。我猜问题在于$TPU_NAME环境变量

!python run_pretraining.py \
--input_file='gs://xxxxxxxxxx/*' \
--output_dir=/kaggle/working/model/ \
--do_train=True \
--do_eval=True \
--bert_config_file=/kaggle/input/bert-bangla-test-config/config.json \
--train_batch_size=32 \
--max_seq_length=128 \
--max_predictions_per_seq=20 \
--num_train_steps=20 \
--num_warmup_steps=2 \
--learning_rate=2e-5 \
--use_tpu=True \
--tpu_name=$TPU_NAME

好吧,我找到了一个新手解决方案:p

运行:


从返回的字典中,您可以得到地址。只是复制粘贴或者其他什么。它将以“TPU_NAME”的形式出现:grpc://xxxxxxx“.

好吧,我找到了一个新手解决方案:p

运行:


从返回的字典中,您可以得到地址。只是复制粘贴或者其他什么。它将以“TPU_NAME”的形式出现:grpc://xxxxxxx“.

如果脚本使用的是
tf.distribute.cluster_resolver.TPUClusterResolver()
(),那么您可以简单地实例化
TPUClusterResolver
,而无需任何参数,它将自动拾取
TPU_名称
()

import os
os.environ