Matrix 深度学习网络的图形表示?

Matrix 深度学习网络的图形表示?,matrix,neural-network,deep-learning,Matrix,Neural Network,Deep Learning,有人能为我提供一个深度学习网络的图形表示吗 这是第1层、第2层、第3层等等,所有层的神经元和层中神经元之间的权重,它们是如何连接的,等等 我不想要任何大的东西,我只想让它们以矩阵的形式显示,因为我实际上无法将我的手指放在如何将整个网络表示为互连矩阵上 即使矩阵是2x2,也没关系,我只想有一个例子 矩阵表示 您不会将神经元建模为矩阵。相反,您只需要将权重层表示为单个矩阵 0隐藏层 在这种情况下,您只需要一个矩阵。这将是大小: n x m // n: inputs, m: outputs

有人能为我提供一个深度学习网络的图形表示吗

这是第1层、第2层、第3层等等,所有层的神经元和层中神经元之间的权重,它们是如何连接的,等等

我不想要任何大的东西,我只想让它们以矩阵的形式显示,因为我实际上无法将我的手指放在如何将整个网络表示为互连矩阵上

即使矩阵是2x2,也没关系,我只想有一个例子

矩阵表示 您不会将神经元建模为矩阵。相反,您只需要将权重层表示为单个矩阵

0隐藏层
在这种情况下,您只需要一个矩阵。这将是大小:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
矩阵元素将相应地表示给定层中的各个权重:

n隐藏层
每个权重层都有自己的矩阵。矩阵的大小为:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
具有单个隐藏层的网络的图形可视化:

计算 您必须在输入信号和权重矩阵之间增量执行点积:

input_vector: 1 x n matrix,    n: number of inputs
weight_layer: n x m matrix,    n: number of inputs to this layer     m: number of outputs from this layer

input_vector.dot( weight_layer ) # forward calculation
矩阵表示 您不会将神经元建模为矩阵。相反,您只需要将权重层表示为单个矩阵

0隐藏层
在这种情况下,您只需要一个矩阵。这将是大小:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
矩阵元素将相应地表示给定层中的各个权重:

n隐藏层
每个权重层都有自己的矩阵。矩阵的大小为:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
具有单个隐藏层的网络的图形可视化:

计算 您必须在输入信号和权重矩阵之间增量执行点积:

input_vector: 1 x n matrix,    n: number of inputs
weight_layer: n x m matrix,    n: number of inputs to this layer     m: number of outputs from this layer

input_vector.dot( weight_layer ) # forward calculation
矩阵表示 您不会将神经元建模为矩阵。相反,您只需要将权重层表示为单个矩阵

0隐藏层
在这种情况下,您只需要一个矩阵。这将是大小:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
矩阵元素将相应地表示给定层中的各个权重:

n隐藏层
每个权重层都有自己的矩阵。矩阵的大小为:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
具有单个隐藏层的网络的图形可视化:

计算 您必须在输入信号和权重矩阵之间增量执行点积:

input_vector: 1 x n matrix,    n: number of inputs
weight_layer: n x m matrix,    n: number of inputs to this layer     m: number of outputs from this layer

input_vector.dot( weight_layer ) # forward calculation
矩阵表示 您不会将神经元建模为矩阵。相反,您只需要将权重层表示为单个矩阵

0隐藏层
在这种情况下,您只需要一个矩阵。这将是大小:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
矩阵元素将相应地表示给定层中的各个权重:

n隐藏层
每个权重层都有自己的矩阵。矩阵的大小为:

n x m //    n: inputs,   m: outputs
n x m //    n: inputs to this layer,   m: outputs from this layer
具有单个隐藏层的网络的图形可视化:

计算 您必须在输入信号和权重矩阵之间增量执行点积:

input_vector: 1 x n matrix,    n: number of inputs
weight_layer: n x m matrix,    n: number of inputs to this layer     m: number of outputs from this layer

input_vector.dot( weight_layer ) # forward calculation