Tensorflow和feed_dict及配料培训集

Tensorflow和feed_dict及配料培训集,tensorflow,Tensorflow,有没有什么聪明的方法可以使用feed_dict动态创建批处理。引擎盖下面有什么可能有用的吗。因此,我的训练数据会加载到列表中,但不会成批处理。有没有什么聪明的方法可以让我用feed_dict随机选择一个批次,而不必预先批处理数据 例如,我有: for i in range(N_STEPS): sess.run(train_step, feed_dict={x_: X, y_: Y}) 其中X和Y是标准NN的输入和输出,X的长度是训练示例的数量。人们对创建批次有什么建议 我想这可

有没有什么聪明的方法可以使用feed_dict动态创建批处理。引擎盖下面有什么可能有用的吗。因此,我的训练数据会加载到列表中,但不会成批处理。有没有什么聪明的方法可以让我用feed_dict随机选择一个批次,而不必预先批处理数据

例如,我有:

for i in range(N_STEPS):
        sess.run(train_step, feed_dict={x_: X, y_: Y})
其中X和Y是标准NN的输入和输出,X的长度是训练示例的数量。人们对创建批次有什么建议

我想这可能会起作用,但一定要有更优雅的东西

batch = random.randrange(0, len(X)-N_BATCH)
sess.run(train_step, feed_dict={x_: X[batch:batch+N_BATCH], y_: Y[batch:batch+N_BATCH]})

谷歌创建的关于udacity的tensorflow课程对批次使用了以下内容

步进范围(num_步数):
#在训练数据中拾取已随机化的偏移量。
#注:我们可以使用更好的跨时代随机分组。
偏移量=(步长*批量大小)%(系列标签.形状[0]-批量大小)
#生成一个小批量。
批次数据=序列数据集[偏移量:(偏移量+批次大小),:]
批次标签=系列标签[偏移量:(偏移量+批次大小),:]
#准备一本字典,告诉会话在哪里输入迷你批处理。
#字典的键是要输入的图形的占位符节点,
#该值是要提供给它的numpy数组。
feed_dict={tf_train_数据集:批处理数据,tf_train_标签:批处理标签}
通过使用
tf.placeholder
定义的
tf\u列\u数据集和
tf\u列\u标签