如何从Tensorflow rnn教程代码中获取不同批次的训练数据?
在RNN的Tensorflow教程代码中,如何获得下一批?在reader.py中,函数ptb_producer通过出列方法一次生成一批维度[batch_size x num_steps],但在ptb_word_lm.py中不会多次调用该函数以获取所有批次。了解如何获得不同批次的任何帮助都将非常有用。提前感谢。您是否注意到ptb_word_lm.py(第376行)中的这些代码如下:如何从Tensorflow rnn教程代码中获取不同批次的训练数据?,tensorflow,Tensorflow,在RNN的Tensorflow教程代码中,如何获得下一批?在reader.py中,函数ptb_producer通过出列方法一次生成一批维度[batch_size x num_steps],但在ptb_word_lm.py中不会多次调用该函数以获取所有批次。了解如何获得不同批次的任何帮助都将非常有用。提前感谢。您是否注意到ptb_word_lm.py(第376行)中的这些代码如下: sv = tf.train.Supervisor(logdir=FLAGS.save_path) with
sv = tf.train.Supervisor(logdir=FLAGS.save_path)
with sv.managed_session() as session:
for i in range(config.max_max_epoch):#LOOK!The param max_max_epoch.
lr_decay = config.lr_decay ** max(i + 1 - config.max_epoch, 0.0)
m.assign_lr(session, config.learning_rate * lr_decay)
这显然是一个循环,op
m.assign\u lr()
被执行了max\u max\u epoch
次。而且,m=PTBModel(is\u training=True,config=config,input=train\u input)
,(ptb\u生产者在sess.run()
被调用一次时生成一批),对吗?实际上,函数ptb_producer在ptb_word_lm.py中被多次调用。p、 我不确定它是否正确。希望有帮助。嗨,欢迎来到stack overflow。请参阅