Neural network 是不是;“新纪元”;对于HMMs和神经网络有不同的含义吗?

Neural network 是不是;“新纪元”;对于HMMs和神经网络有不同的含义吗?,neural-network,speech-recognition,training-data,hidden-markov-models,Neural Network,Speech Recognition,Training Data,Hidden Markov Models,我正在构建一个语音到文本系统,其中包含N样本句子,使用隐马尔可夫模型进行重新估计。在神经网络的背景下,我了解到历元的概念是指一个完整的训练周期。我假设这意味着“将相同的数据输入到相同的网络,每次更新具有不同权重和偏差的网络”——如果我错了,请纠正我 相同的逻辑在从相同的句子对HMM进行重新评估(即训练)时是否有效?换句话说,如果我有N个句子,我可以将输入样本重复10次以生成10*Nsamples。这是否意味着我正在HMMs上执行10个时代?此外,这是否真的有助于获得更好的结果 从论文中,我得到的

我正在构建一个语音到文本系统,其中包含
N
样本句子,使用隐马尔可夫模型进行重新估计。在神经网络的背景下,我了解到历元的概念是指一个完整的训练周期。我假设这意味着“将相同的数据输入到相同的网络,每次更新具有不同权重和偏差的网络”——如果我错了,请纠正我

相同的逻辑在从相同的句子对HMM进行重新评估(即训练)时是否有效?换句话说,如果我有N个句子,我可以将输入样本重复10次以生成
10*N
samples。这是否意味着我正在HMMs上执行10个时代?此外,这是否真的有助于获得更好的结果

从论文中,我得到的印象是,HMMs中的历元指的是一个时间单位:

计数表示生成的特定于设备的数字量 通过加速计测量特定时间单位(历元)(例如1到60 秒)

如果不是一个时间单位,至少epoch听起来是不同的。最后,我想知道:

  • 在HMMs的上下文中,什么是epoch
  • 它和我的有什么不同 神经网络的新纪元
  • 考虑到将历元定义为训练周期,多个历元是否会改善对训练周期的重新估计 嗯
在HMMs的上下文中,什么是epoch

与神经网络一样,对整个数据集进行一轮处理

它与神经网络中的历元有什么不同

除了“epoch”一词在HMM中的使用不太广泛外,没有什么区别。人们只是称之为“迭代”

从本文中,我得到的印象是,在HMMs的上下文中,epoch指的是一个时间单位

本文中的“Epoch”与HMM上下文完全无关,它是该论文特有的一个单独的概念,您不应该从论文中概括术语用法

考虑到将历元定义为训练周期,多个历元是否会改善HMM的重新估计

对于神经网络和HMM,都不存在诸如多个历元改进重新估计之类的事情。每个历元都将精度提高到某一点,然后发生过度训练,验证误差开始增长,训练误差继续为零。有一个最佳的迭代次数,通常取决于模型架构。HMM模型通常具有较少的参数,并且不太容易过度训练,所以额外的时间段并没有那么有害。尽管如此,仍有许多时代需要你以最佳方式完成

在语音识别中,通常是Baum-Welch算法的6-7次迭代。越少的时间段,模型越不准确,越多的时间段可能导致过度训练,或者根本无法改善任何情况