Keras中的GaussianDropout层是否像辍学层一样保留概率?

Keras中的GaussianDropout层是否像辍学层一样保留概率?,keras,gaussian,Keras,Gaussian,我想知道Keras中的GaussianDropout层是否像辍学层一样保留概率。 辍学层实现为保留概率的反向辍学 如果你没有意识到这个问题,你可以看一看问题的答案,特别是林熙惠的答案。 使退出层保留概率的关键点是K.Dropout的调用,它不是由GaussianDropout层调用的 高斯分布层不保留概率有什么原因吗? 或者它是保留的,但以另一种方式被看不见 类似-指的是辍学层:因此高斯辍学不需要保留概率,因为它的起源是将中心极限定理应用于反向辍学。细节可以在乘性高斯噪声章节(第10章,第195

我想知道Keras中的GaussianDropout层是否像辍学层一样保留概率。 辍学层实现为保留概率的反向辍学

如果你没有意识到这个问题,你可以看一看问题的答案,特别是林熙惠的答案。 使退出层保留概率的关键点是K.Dropout的调用,它不是由GaussianDropout层调用的

高斯分布层不保留概率有什么原因吗? 或者它是保留的,但以另一种方式被看不见


类似-指的是辍学层:

因此高斯辍学不需要保留概率,因为它的起源是将中心极限定理应用于反向辍学。细节可以在乘性高斯噪声章节(第10章,第1951页)的第2和第3段中找到。

您还有什么想知道的吗?你没有高估我的答案,我很满意。但我接受了你的回答。更好;我以为你不是很满意。我不完全理解这个理论,但我想这没关系。(对我来说)最重要的信息是:我可以问心无愧地在Keras中使用Gaussiandroput层!这里是GausDropout和GausNoise之间的区别