Machine learning 为什么不是';非监督学习中的辍学现象?

Machine learning 为什么不是';非监督学习中的辍学现象?,machine-learning,neural-network,unsupervised-learning,supervised-learning,Machine Learning,Neural Network,Unsupervised Learning,Supervised Learning,所有或几乎所有使用辍学的论文都在使用它进行监督学习。它似乎可以很容易地用于规范深层自动编码器、RBM和DBN。那么为什么辍学不用于非监督学习呢?辍学用于非监督学习。例如: 翟双飞,张中飞:稀疏图中用于链路预测的矩阵分解和自动编码器的退出训练(2015年12月14日) 看看去噪自动编码器,添加随机噪声类似于丢失。是的,这是完全相同的想法。他们随机选择输入并将其设置为0。看:我有同样的问题。我认为去噪AE只适用于输入层的衰减。我的问题是,为什么不将dropout应用于隐藏层以防止过度拟合?

所有或几乎所有使用辍学的论文都在使用它进行监督学习。它似乎可以很容易地用于规范深层自动编码器、RBM和DBN。那么为什么辍学不用于非监督学习呢?

辍学用于非监督学习。例如:

翟双飞,张中飞:稀疏图中用于链路预测的矩阵分解和自动编码器的退出训练(2015年12月14日)


看看去噪自动编码器,添加随机噪声类似于丢失。是的,这是完全相同的想法。他们随机选择输入并将其设置为0。看:我有同样的问题。我认为去噪AE只适用于输入层的衰减。我的问题是,为什么不将dropout应用于隐藏层以防止过度拟合?