Neural network 什么是神经网络的时代?

Neural network 什么是神经网络的时代?,neural-network,epoch,Neural Network,Epoch,什么是神经网络 我想要一个新的定义 EPOCH将更新权重 那么它是如何工作的呢 更改“培训数据(输入数据)” 更改“增量规则(激活函数)” 这是在使用梯度下降法训练神经网络的背景下实现的。由于我们通常使用随机或小批量梯度下降法来训练神经网络,因此并非所有的训练数据都用于每个迭代步骤 随机和小批量梯度下降在每次迭代中使用批量大小的训练示例,因此在某个时候,您将使用所有数据进行训练,并且可以从数据集的开始重新开始 考虑到这一点,一个历元是整个训练集的一个完整过程,这意味着它是梯度下降更新的多次迭代

什么是神经网络

我想要一个新的定义

EPOCH将更新权重

那么它是如何工作的呢

更改“培训数据(输入数据)”

更改“增量规则(激活函数)”


这是在使用梯度下降法训练神经网络的背景下实现的。由于我们通常使用随机或小批量梯度下降法来训练神经网络,因此并非所有的训练数据都用于每个迭代步骤

随机和小批量梯度下降在每次迭代中使用批量大小的训练示例,因此在某个时候,您将使用所有数据进行训练,并且可以从数据集的开始重新开始


考虑到这一点,一个历元是整个训练集的一个完整过程,这意味着它是梯度下降更新的多次迭代,直到您将所有数据显示给NN,然后重新开始。

这是在使用梯度下降训练神经网络的上下文中出现的。由于我们通常使用随机或小批量梯度下降法来训练神经网络,因此并非所有的训练数据都用于每个迭代步骤

随机和小批量梯度下降在每次迭代中使用批量大小的训练示例,因此在某个时候,您将使用所有数据进行训练,并且可以从数据集的开始重新开始


考虑到这一点,一个历元是通过整个训练集的一个完整过程,这意味着它是梯度下降更新的多次迭代,直到您将所有数据显示给NN,然后重新开始。

历元是通过整个训练数据集的单次过程。
传统的梯度下降法针对给定次数的历元的整个训练数据集的参数计算损失函数的梯度。

历元是单通整个训练数据集。
传统的梯度下降法计算损失函数的梯度,该梯度与给定次数的整个训练数据集的参数有关。

简单地说:


纪元是一个所有事情都发生的函数。在一个历元内,开始正向传播和反向传播。在一个历元内,你激活神经元,计算损失,得到损失函数的偏导数,然后用你的权重更新新值。当所有这些都完成后,你开始新的纪元,然后是新的纪元等等。纪元的数量并不重要。重要的是损失函数、导数等的变化。因此,当您对结果感到满意时,您可以停止epoch迭代并将模型导出:)

简单地说:


纪元是一个所有事情都发生的函数。在一个历元内,开始正向传播和反向传播。在一个历元内,你激活神经元,计算损失,得到损失函数的偏导数,然后用你的权重更新新值。当所有这些都完成后,你开始新的纪元,然后是新的纪元等等。纪元的数量并不重要。重要的是你的损失函数、导数等的变化。因此,当你对结果满意时,你可以停止epoch迭代,将你的模型拿出来:)

这篇文章有一些相关信息:这篇文章有一些相关信息:一个完整的过程能做什么?如果您使用的是完全相同的培训数据,为什么需要一次以上的完整通过?我以为一次通过就能从梯度下降中找到最小误差。@mskw梯度下降是一种迭代算法,它不会在一次迭代中找到最小误差。那么epoch与梯度下降有什么关系吗?@mskw是的,这就是我的答案。批处理源于每次迭代时只需要使用部分训练集,通常情况下,您可能无法将整个数据集放入内存中,或者使用完整数据集进行迭代在计算上过于昂贵。那么,一个历元仅仅是训练集的一次完整传球。一次完整传球的作用是什么?如果您使用的是完全相同的培训数据,为什么需要一次以上的完整通过?我以为一次通过就能从梯度下降中找到最小误差。@mskw梯度下降是一种迭代算法,它不会在一次迭代中找到最小误差。那么epoch与梯度下降有什么关系吗?@mskw是的,这就是我的答案。批处理源于每次迭代时只需要使用部分训练集,通常情况下,您可能无法将整个数据集放入内存中,或者使用完整数据集进行迭代在计算上过于昂贵。然后,一个历元就是对训练集的一次完整访问。一次访问是访问第一层的所有神经元,然后是隐藏层,然后是最后一个/输出层。一次访问是访问第一层的所有神经元,然后是隐藏层,然后是最后一个/输出层。