Neural network 是不是;“新纪元”;对于HMMs和神经网络有不同的含义吗?
我正在构建一个语音到文本系统,其中包含Neural network 是不是;“新纪元”;对于HMMs和神经网络有不同的含义吗?,neural-network,speech-recognition,training-data,hidden-markov-models,Neural Network,Speech Recognition,Training Data,Hidden Markov Models,我正在构建一个语音到文本系统,其中包含N样本句子,使用隐马尔可夫模型进行重新估计。在神经网络的背景下,我了解到历元的概念是指一个完整的训练周期。我假设这意味着“将相同的数据输入到相同的网络,每次更新具有不同权重和偏差的网络”——如果我错了,请纠正我 相同的逻辑在从相同的句子对HMM进行重新评估(即训练)时是否有效?换句话说,如果我有N个句子,我可以将输入样本重复10次以生成10*Nsamples。这是否意味着我正在HMMs上执行10个时代?此外,这是否真的有助于获得更好的结果 从论文中,我得到的
N
样本句子,使用隐马尔可夫模型进行重新估计。在神经网络的背景下,我了解到历元的概念是指一个完整的训练周期。我假设这意味着“将相同的数据输入到相同的网络,每次更新具有不同权重和偏差的网络”——如果我错了,请纠正我
相同的逻辑在从相同的句子对HMM进行重新评估(即训练)时是否有效?换句话说,如果我有N个句子,我可以将输入样本重复10次以生成10*N
samples。这是否意味着我正在HMMs上执行10个时代?此外,这是否真的有助于获得更好的结果
从论文中,我得到的印象是,HMMs中的历元指的是一个时间单位:
计数表示生成的特定于设备的数字量
通过加速计测量特定时间单位(历元)(例如1到60
秒)
如果不是一个时间单位,至少epoch听起来是不同的。最后,我想知道:
- 在HMMs的上下文中,什么是epoch李>
- 它和我的有什么不同 神经网络的新纪元李>
- 考虑到将历元定义为训练周期,多个历元是否会改善对训练周期的重新估计 嗯