Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/291.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用_tensor_slices()中的Tensorflow数据集时,是否可以不在每个列车步骤加载新批次?_Python_Tensorflow_Tensorflow Datasets - Fatal编程技术网

Python 使用_tensor_slices()中的Tensorflow数据集时,是否可以不在每个列车步骤加载新批次?

Python 使用_tensor_slices()中的Tensorflow数据集时,是否可以不在每个列车步骤加载新批次?,python,tensorflow,tensorflow-datasets,Python,Tensorflow,Tensorflow Datasets,我想在同一批上训练几个步骤,因为我想给CPU时间来加载下一批。我正在使用可重新初始化的迭代器和tf.data.Dataset.from_tensor_切片((tf.range(n_train)),然后使用.map()按索引获取数据集。我想在批次上运行至少与加载下一批次所需的相同数量的训练步骤。所以您想重复每个数据点n次,对吗?以下几点应能实现这一目标 n_train = 10 n_repeat = 5 ds = tf.data.Dataset.from_tensor_slices((tf.ran

我想在同一批上训练几个步骤,因为我想给CPU时间来加载下一批。我正在使用可重新初始化的迭代器和
tf.data.Dataset.from_tensor_切片((tf.range(n_train))
,然后使用.map()按索引获取数据集。我想在批次上运行至少与加载下一批次所需的相同数量的训练步骤。

所以您想重复每个数据点
n
次,对吗?以下几点应能实现这一目标

n_train = 10
n_repeat = 5
ds = tf.data.Dataset.from_tensor_slices((tf.range(n_train))).interleave(lambda x: tf.data.Dataset.from_tensors(x).repeat(n_repeat), block_length=n_repeat)
diter =  ds.make_one_shot_iterator()
elem = diter.get_next()

with tf.Session() as sess:
  for _ in range(n_train*n_repeat):
    print(sess.run(elem))