Tensorflow 在ptb_word_lm.py中将eval_config参数设置为1的原因

Tensorflow 在ptb_word_lm.py中将eval_config参数设置为1的原因,tensorflow,neural-network,nlp,language-model,Tensorflow,Neural Network,Nlp,Language Model,在检查Tensorflow的PTB语言模型中的评估设置时,我对eval_config中的评估设置感到困惑: eval_config = get_config() eval_config.batch_size = 1 eval_config.num_steps = 1 在 据我所知,在评估过程中,使用上下文单词的窗口(最多可达num_步)预测下一个单词,该单词存储在单独的目标张量中。如果num_steps设置为1,是否意味着只有前面的单词用于预测(忽略上下文窗口大小>1)?在评估过程

在检查Tensorflow的PTB语言模型中的评估设置时,我对eval_config中的评估设置感到困惑:

  eval_config = get_config()
  eval_config.batch_size = 1
  eval_config.num_steps = 1


据我所知,在评估过程中,使用上下文单词的窗口(最多可达num_步)预测下一个单词,该单词存储在单独的目标张量中。如果num_steps设置为1,是否意味着只有前面的单词用于预测(忽略上下文窗口大小>1)?在评估过程中,为什么批次大小也设置为1。将更大的一批输入到网络中进行语音评估难道没有意义吗?

我认为,仅在输出中展开一步,就是按照第一次看到的单词来评估每个单词。这也可能是批大小为1的原因。

我看不出有任何理由将批大小设置为1。