Neural network 什么是';层';在神经网络中

Neural network 什么是';层';在神经网络中,neural-network,Neural Network,下面我画了一个典型的前馈神经网络: 现在我的问题是,就行话来说,什么是层 每个单独的进程(矩形)可以被视为一个层吗?或者层的组合是流程图中的一行?我有时把乘法+加法看作一个单层,把非线性函数(relu)看作一个单独的层。但我真的希望得到一个明确的答案 我经常在教人们学习神经网络的在线视频中发现,讲师自己在一个例子中混淆了层次的数量 在图表中,每一行本质上都是一个层。但正如@bicker所说,这并不是可视化神经网络的最佳方式 从中拍摄图像将有助于澄清这一点 层是一个通用术语,适用于神经网络中在

下面我画了一个典型的前馈神经网络:

现在我的问题是,就行话来说,什么是层

每个单独的进程(矩形)可以被视为一个层吗?或者层的组合是流程图中的一行?我有时把乘法+加法看作一个单层,把非线性函数(relu)看作一个单独的层。但我真的希望得到一个明确的答案


我经常在教人们学习神经网络的在线视频中发现,讲师自己在一个例子中混淆了层次的数量

在图表中,每一行本质上都是一个层。但正如@bicker所说,这并不是可视化神经网络的最佳方式

从中拍摄图像将有助于澄清这一点

层是一个通用术语,适用于神经网络中在特定深度共同运行的“节点”集合

输入层包含您的原始数据(您可以将每个变量视为一个“节点”)

隐藏层是神经网络中发生黑魔法的地方。每一层都试图通过最小化错误/成本函数来了解数据的不同方面。理解这些层最直观的方法是在“图像识别”的上下文中,例如人脸。第一层可能会学习边缘检测,第二层可能会检测眼睛,第三层可能会检测鼻子等。这并不完全是正在发生的事情,但其想法是将问题分解成不同抽象层次可以拼凑在一起的组件,就像我们自己的大脑工作一样(因此被称为“神经网络”)


输出层是最简单的,通常由分类问题的单个输出组成。虽然它是一个单一的“节点”,但它仍然被视为神经网络中的一个层,因为它可以包含多个节点。

神经网络的核心构建块是层,一个数据处理模块 您可以将其视为数据的过滤器。一些数据输入,然后以更有用的方式输出 形式。具体来说,图层从输入的数据中提取表示, 对当前问题更有意义的表示。大部分 深度学习包括将实现表单的简单层链接在一起 渐进式数据蒸馏的应用。深度学习模型就像数据处理的筛子,
由一系列越来越精细的数据组成,过滤层。

古德费罗,2016年在他的书中,将网络定义为一个功能组合,其中每个功能都是一个层:


然而,从最初的问题,我不认为可以矢量化(乘法和添加偏压)作为单独的层,虽然Relu或其他激活函数最常被视为层,这也符合Goodfellow给出的定义。

这是一个令人困惑的看待神经网络的方式。试一下这页右边的图表:我个人是以这个为基础的。一次激活=一层。这绝不是一个正式的定义,而是直观的——“一组与输入具有相同距离的节点”@yurib我认为这不仅是非正式的,而且是一个错误的定义。你可能不想把两个独立的层看作一个事物,仅仅因为它们与输入具有相同的距离。