Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow 权重矩阵提供了哪些信息?_Tensorflow_Machine Learning - Fatal编程技术网

Tensorflow 权重矩阵提供了哪些信息?

Tensorflow 权重矩阵提供了哪些信息?,tensorflow,machine-learning,Tensorflow,Machine Learning,我正在处理二进制分类问题。我只是打印了部分代码。我熟悉softmax函数,它给出了属于某一类的概率。在W_fc,我无法获得任何有关课程的信息。所以我想知道W_fc提供了什么信息?W_fc中打印的值的意义是什么?我可以绘制W_fc的直方图吗?我将如何做到这一点 W_fc = weight_variable([input_dim, 2]) logits = tf.matmul(pool_2D, W_fc) #(batch_size,2) y_conv=tf.nn.softmax(logits)

我正在处理二进制分类问题。我只是打印了部分代码。我熟悉softmax函数,它给出了属于某一类的概率。在W_fc,我无法获得任何有关课程的信息。所以我想知道W_fc提供了什么信息?W_fc中打印的值的意义是什么?我可以绘制W_fc的直方图吗?我将如何做到这一点

W_fc = weight_variable([input_dim, 2])
logits = tf.matmul(pool_2D, W_fc)   #(batch_size,2)
y_conv=tf.nn.softmax(logits)

#Fully connected layer(W_fc)
[[-0.07672054  0.2260601 ]
[ 0.36111656 -0.36078873]
[ 0.08611391 -0.23779725]
[-0.07158212 -0.21373497]

#softmax_out(y_conv)
[[0.80258745 0.19741252]
[0.76372457 0.23627539]
[0.8738684  0.12613155]
[0.7311098  0.26889023]

W_fc
这里很可能指的是与神经网络的
f
ully
c
连接层相关的
W
八个矩阵。有关这些函数执行的功能的简单易懂的解释,请参见此

这些权重的值基本上定义了神经网络的行为,实现这些值的良好配置正是我们在神经网络训练过程中要解决的问题。训练过程通过反向传播逐渐调整这些值,以提高训练数据上的网络性能,希望这些权重中编码的信息在面对新数据时保持真实

至于“什么信息
W_fc
提供?”。对你用户来说:不多。至少不是以可观察的形式。除了最简单的网络外,这些权重之间的相互作用以及它们对网络性能的贡献是复杂的

在卷积神经网络(CNN)中,由于权重连接的空间局部性质,权重中的值在某种程度上更易于消化。在这些情况下,这些权重组充当特征检测器,随着您深入网络,其复杂性将不断增加()


在对值进行历史编程方面,您当然可以做到这一点(请参阅)。但这并没有提供多少有用的信息。尽管有观点认为,权重值越低,新数据(数据的基础)的概括效果越好,而且任何占主导地位的高值权重都可以作为证据

权重矩阵不适用于此类信息,通常也不适用于直方图等(除了出于一般诊断目的查看权重分布-请参阅),那么这些值代表什么?这些权重矩阵提供了哪个参数的权重?我们能用它沿x轴W和y轴频率来绘制直方图吗?它们代表了后续网络层之间“连接”的权重-在网上提供的几十个教程中有清楚的解释。。。至于你的直方图想法,你当然可以(从编程的角度来看),但到底是为了什么呢?嘿,伙计们。这个问题不属于stats.stackexchange.com吗?如果我的W矩阵形状是(50,2),一个热向量在特定温度下的形状是(2,1),我执行类似矩阵的乘法b/W two,那么它会给我关于特定温度的什么信息?我熟悉反向传播。根据我的理解,W矩阵中的正值意味着它们所连接的节点更重要。但我不确定我的理解是否正确。我特别关注CNN“我熟悉反向传播。根据我的理解,W矩阵中的正值意味着它们所连接的节点更重要”——这是真的。请参见a(基本NN单元)的配置。W中的值是指输入乘以的权重。W中的正值越大,则“加权和”越大。确切的影响取决于,对于大多数CNN,这是relu。节点的“重要性”(或其输出的大小)随此加权和线性增加。