Neural network AWD-LSTM中的辍学

Neural network AWD-LSTM中的辍学,neural-network,lstm,fast-ai,dropout,Neural Network,Lstm,Fast Ai,Dropout,我正在尝试实现AWD-LSTM,因此希望确保我正确理解辍学技术。我读过这篇文章&fastai文档,但仍然怀疑我是否正确理解了它 嵌入丢失(Embedded_p)-用零向量替换单词嵌入的概率 输入丢失(Input_p)-用0替换所选嵌入向量的每个分量的概率 权重衰减(Weight_p)-用0替换所有递归矩阵的每个权重的概率 隐藏(经常性)丢失(隐藏p)-替换更新向量的每个分量的概率(在将tanh层的结果与输入门层输出相乘后获得) 这些名字都是从我这里收到的 我对所有类型的辍学者都给出了正确的定义了

我正在尝试实现AWD-LSTM,因此希望确保我正确理解辍学技术。我读过这篇文章&fastai文档,但仍然怀疑我是否正确理解了它

嵌入丢失(Embedded_p)-用零向量替换单词嵌入的概率

输入丢失(Input_p)-用0替换所选嵌入向量的每个分量的概率

权重衰减(Weight_p)-用0替换所有递归矩阵的每个权重的概率

隐藏(经常性)丢失(隐藏p)-替换更新向量的每个分量的概率(在将tanh层的结果与输入门层输出相乘后获得)

这些名字都是从我这里收到的


我对所有类型的辍学者都给出了正确的定义了吗?

你能澄清这个问题吗?当然。我对所有类型的辍学者都给出了正确的定义了吗?stackoverflow是关于实际的软件问题/算法。“我给出了正确的定义了吗?”对于这个论坛不是一个好问题。考虑包括一段代码、错误、预期结果、具体问题等等,人们会帮助你。但是我需要实施公式。我相信没有区别,我会要求正确的定义,或者我会引用我的实现,怀疑它是否真的完成了。