Tensorflow 在tf slim中实现跳过/剩余层

Tensorflow 在tf slim中实现跳过/剩余层,tensorflow,neural-network,tf-slim,Tensorflow,Neural Network,Tf Slim,我一直在试图找出如何使用tf slim实现跳过/剩余连接,但似乎无法实现 我知道,跳过连接基本上不仅为下一层提供输入,还为下一层提供输入。我还读了几篇关于跳过层的文章,并回忆起他们提到的F(x)+x,我假设是x上的激活函数加上了另一个x。但我不确定这对在tf slim中实现跳过/剩余层有何帮助 下面是我为它编写的代码,但我不能100%确定我是否做得正确。该模型运行,但我不确定它是否利用了跳过连接和一切 input_layer = slim.fully_connected(input, 6

我一直在试图找出如何使用tf slim实现跳过/剩余连接,但似乎无法实现

我知道,跳过连接基本上不仅为下一层提供输入,还为下一层提供输入。我还读了几篇关于跳过层的文章,并回忆起他们提到的F(x)+x,我假设是x上的激活函数加上了另一个x。但我不确定这对在tf slim中实现跳过/剩余层有何帮助

下面是我为它编写的代码,但我不能100%确定我是否做得正确。该模型运行,但我不确定它是否利用了跳过连接和一切

    input_layer = slim.fully_connected(input, 6000, activation_fn=tf.nn.relu)
    drop_layer_1 = slim.dropout(input_layer, 0.5)
    hidden_layer_1 = slim.fully_connected(drop_layer_1, 6000, activation_fn=tf.nn.relu)
    drop_layer_2 = slim.dropout(hidden_layer_1, 0.5)
    skip_layer = tf.add(input_layer, drop_layer_2)
    activate_layer = tf.nn.relu(skip_layer)
    output = slim.fully_connected(activate_layer, num_classes, activation_fn=tf.nn.softmax)
任何帮助都将不胜感激。提前谢谢