Tensorflow 如何在培训期间批量激活图层
我正在使用Keras(带有tensorflow后端),并试图在训练期间在我的训练集上获得图层输出(实际激活)(使用“fit”功能) 是否有任何方法可以将用于培训的最后一批的激活作为on_batch_end回调的一部分?或者以任何其他方式访问输出层 我在下面找到了这段代码,但它在新数据上再次向前传递。我正试图利用我的网络已经做了一个向前传递的事实,作为批处理本身培训的一部分,只是拉当前激活,这是可能的吗Tensorflow 如何在培训期间批量激活图层,tensorflow,keras,keras-layer,keras-2,Tensorflow,Keras,Keras Layer,Keras 2,我正在使用Keras(带有tensorflow后端),并试图在训练期间在我的训练集上获得图层输出(实际激活)(使用“fit”功能) 是否有任何方法可以将用于培训的最后一批的激活作为on_batch_end回调的一部分?或者以任何其他方式访问输出层 我在下面找到了这段代码,但它在新数据上再次向前传递。我正试图利用我的网络已经做了一个向前传递的事实,作为批处理本身培训的一部分,只是拉当前激活,这是可能的吗 def get_activations(model, model_inputs, print
def get_activations(model, model_inputs, print_shape_only=False, layer_name=None):
print('----- activations -----')
activations = []
inp = model.input
model_multi_inputs_cond = True
if not isinstance(inp, list):
# only one input! let's wrap it in a list.
inp = [inp]
model_multi_inputs_cond = False
outputs = [layer.output for layer in model.layers if
layer.name == layer_name or layer_name is None] # all layer outputs
funcs = [K.function(inp + [K.learning_phase()], [out]) for out in outputs] # evaluation functions
if model_multi_inputs_cond:
list_inputs = []
list_inputs.extend(model_inputs)
list_inputs.append(0.)
else:
list_inputs = [model_inputs, 0.]
# Learning phase. 0 = Test mode (no dropout or batch normalization)
# layer_outputs = [func([model_inputs, 0.])[0] for func in funcs]
layer_outputs = [func(list_inputs)[0] for func in funcs]
for layer_activations in layer_outputs:
activations.append(layer_activations)
if print_shape_only:
print(layer_activations.shape)
else:
print(layer_activations)
return activations
AFAIK、fit函数或回调函数都没有这种能力。如果您不想执行第二次传递,我建议您实现自己的训练循环,而不是使用
fit
函数。即使批量进行训练,我如何在一次传递中完成?好吧,fit函数或回调函数没有这种能力。如果您不想进行第二次训练,我建议您实施自己的训练循环,而不是使用fit
功能。即使是批量训练,如何在一次训练中完成?