Tensorflow TF薄层计数

Tensorflow TF薄层计数,tensorflow,neural-network,tf-slim,Tensorflow,Neural Network,Tf Slim,下面的代码代表一层还是两层?我很困惑,因为在神经网络中不也应该有一个输入层吗 input\u layer=slim.完全连接(input,6000,activation\u fn=tf.nn.relu) 输出=超薄。完全连接(输入层,数量输出) 是否包含隐藏层?我只是想把网络形象化。提前谢谢 来自: 此外,TF Slim的Slim.stack运算符允许调用方使用不同的参数重复应用相同的操作,以创建堆栈或层塔。slim.stack还为创建的每个操作创建一个新的tf.variable_作用域。例如

下面的代码代表一层还是两层?我很困惑,因为在神经网络中不也应该有一个输入层吗

input\u layer=slim.完全连接(input,6000,activation\u fn=tf.nn.relu)
输出=超薄。完全连接(输入层,数量输出)
是否包含隐藏层?我只是想把网络形象化。提前谢谢

来自:

此外,TF Slim的Slim.stack运算符允许调用方使用不同的参数重复应用相同的操作,以创建堆栈或层塔。slim.stack还为创建的每个操作创建一个新的tf.variable_作用域。例如,创建多层感知器(MLP)的简单方法:

所以这里提到的网络是一个
[3264128]
网络-一个隐藏大小为64的层。

你有一个有一个隐藏层的神经网络。在您的代码中,
input
对应于上图中的“input”层<代码>输入层是图像所称的“隐藏层”<代码>输出是图像所称的“输出”


请记住,神经网络的“输入层”不是传统的完全连接层,因为它只是未激活的原始数据。这有点用词不当。上图中输入层的神经元与隐藏层或输出层的神经元不同。

谢谢您的评论!那么,32个神经元代表输入层吗?假设我们有一个具有1000个特性的输入。这难道不意味着输入层必须将1000个特征压缩成32个神经元,用于输入层吗?之后,从输入层到第一个隐藏层是否会有32x64权重连接?很抱歉问你这些问题,我只是想理解一下@杜德的问题总是好的!然而,我无法回答这个问题,因为我从未使用过Tensorflow。所以我不知道这些值是如何浓缩的。然而,如果你有一层32个神经元和一层64个神经元,那么连接的数量将是32*64。谢谢!现在说得通了!所以,我的代码将代表你提出的3层神经网络,对吗?正确。输入大小是代码中
input
的大小。隐藏层的大小为6000。输出层的大小为
num\u output
# Verbose way:
x = slim.fully_connected(x, 32, scope='fc/fc_1')
x = slim.fully_connected(x, 64, scope='fc/fc_2')
x = slim.fully_connected(x, 128, scope='fc/fc_3')

# Equivalent, TF-Slim way using slim.stack:
slim.stack(x, slim.fully_connected, [32, 64, 128], scope='fc')