相当于火炬的Tensorflow';什么事?
我需要沿着一个单态维度重复张量很多次,而不需要分配更多内存,例如。在Tensorflow中有这样做的诀窍吗?正如@YaroslavBulatov所说,广播负责隐式扩展所需的调用。正如@YaroslavBulatov所说,广播负责隐式扩展所需的调用。广播消除了这种需要——在TF/numpy中,相当于火炬的Tensorflow';什么事?,tensorflow,expand,Tensorflow,Expand,我需要沿着一个单态维度重复张量很多次,而不需要分配更多内存,例如。在Tensorflow中有这样做的诀窍吗?正如@YaroslavBulatov所说,广播负责隐式扩展所需的调用。正如@YaroslavBulatov所说,广播负责隐式扩展所需的调用。广播消除了这种需要——在TF/numpy中,[1,1]+2将隐式扩展“展开”2以获取[3,3,3]@YaroslavBulatov那么tf.tile呢?我不确定tile不会分配更多的内存。是的,这会分配内存。这就像numpy.tile。我的理论是num
[1,1]+2
将隐式扩展“展开”2以获取[3,3,3]
@YaroslavBulatov那么tf.tile呢?我不确定tile不会分配更多的内存。是的,这会分配内存。这就像numpy.tile
。我的理论是numpy
没有扩展,因为广播时不需要,所以我们在TensorFlow中不需要它。广播可以避免ne为此,在TF/numpy[1,1,1]+2
中,将隐式地“展开”2以获得[3,3,3]
@YaroslavBulatov那么tf.tile呢?我不确定tile不会分配更多的内存。是的,这会分配内存。这就像numpy.tile
。我的理论是numpy
没有扩展,因为广播时不需要,所以在TensorFlow中也不需要它