Python 多个时代的TensorFlow列车批次?
我不知道如何为多个时代运行tf.train.batch的结果。它当然会用完一次,我不知道如何重新启动它Python 多个时代的TensorFlow列车批次?,python,tensorflow,machine-learning,Python,Tensorflow,Machine Learning,我不知道如何为多个时代运行tf.train.batch的结果。它当然会用完一次,我不知道如何重新启动它 也许我可以用平铺重复一遍,这很复杂 如果我每次都能重新绘制一个批,那就好了——我需要batch\u size0和num\u之间的随机整数示例。(我的例子都放在本地RAM中)。我还没有找到一个简单的方法来立即获得这些随机抽签 理想情况下,当批处理重复时,也会有一次改组,但对我来说,更合理的做法是先运行一个历元,然后进行改组,等等,而不是将训练空间加入到自己的num_历元size,然后进行改组
- 也许我可以用
重复一遍,这很复杂平铺
- 如果我每次都能重新绘制一个批,那就好了——我需要
0和num\u之间的随机整数示例。(我的例子都放在本地RAM中)。我还没有找到一个简单的方法来立即获得这些随机抽签batch\u size
- 理想情况下,当批处理重复时,也会有一次改组,但对我来说,更合理的做法是先运行一个历元,然后进行改组,等等,而不是将训练空间加入到自己的
size,然后进行改组num_历元
我认为这是令人困惑的,因为我并没有真正构建一个输入管道,因为我的输入适合内存,但我仍然需要构建批处理、洗牌和多个时代,这可能需要更多关于输入管道的知识。
tf.train.batch
只是将上游样本分组到批中,没有更多。它用于输入管道的末端。数据和时代在上游处理
例如,如果训练数据符合张量,则可以使用生成样本。此函数具有用于洗牌和纪元的参数