Deep learning 在使用MxNet训练神经网络时,如何设置一些退出?

Deep learning 在使用MxNet训练神经网络时,如何设置一些退出?,deep-learning,mxnet,Deep Learning,Mxnet,当使用MxNet训练深度卷积神经网络时,为了减少过度拟合,启用一定数量的丢失最简单的方法是什么?有没有一种方法可以添加辍学率而不在网络体系结构中手动实施辍学?是的,您可以设置辍学率。 辍学层API如下所示: 其中p是辍学率 谢谢乔治的回答。我在搜索时也发现了这个API。然而,我不清楚如果我们有一个像Resnet或InceptionV3这样的网络实现,我们应该如何使用它。你能添加一个例子吗?这就像向网络添加任何其他层一样:conv1=mx.sym.volumation(data=act1,num\

当使用MxNet训练深度卷积神经网络时,为了减少过度拟合,启用一定数量的丢失最简单的方法是什么?有没有一种方法可以添加辍学率而不在网络体系结构中手动实施辍学?

是的,您可以设置辍学率。 辍学层API如下所示:


其中p是辍学率

谢谢乔治的回答。我在搜索时也发现了这个API。然而,我不清楚如果我们有一个像Resnet或InceptionV3这样的网络实现,我们应该如何使用它。你能添加一个例子吗?这就像向网络添加任何其他层一样:
conv1=mx.sym.volumation(data=act1,num\u filter=int(num\u filter*0.25),kernel=(1,1)….dropout1=symbol.Dropout(conv1,p=0.2)