Python 零丢包率丢包层

Python 零丢包率丢包层,python,deep-learning,pytorch,dropout,Python,Deep Learning,Pytorch,Dropout,我很难理解PyTorch中辍学层的某些方面 如前所述,该方法的签名是torch.nn.辍学率(p=0.5,inplace=False),其中p是辍学率 当选择p=0时,该层做什么?它是否以任何方式更改其输入?使用p=0相当于标识操作 事实上,在eval模式下设置时,这就是辍学模块的确切行为: 在求值过程中,模块仅计算一个标识函数 p=0相当于不辍学;你在搞什么?谢谢!无论处于train或eval模式,这都是正确的,对吗?@Shireval模式通过设置p=0完全禁用退出层,因此在这种情况下,它们的

我很难理解PyTorch中辍学层的某些方面

如前所述,该方法的签名是
torch.nn.辍学率(p=0.5,inplace=False)
,其中
p
是辍学率

当选择
p=0
时,该层做什么?它是否以任何方式更改其输入?

使用
p=0
相当于标识操作

事实上,在
eval
模式下设置时,这就是辍学模块的确切行为:

在求值过程中,模块仅计算一个标识函数


p=0
相当于不辍学;你在搞什么?谢谢!无论处于
train
eval
模式,这都是正确的,对吗?@Shir
eval
模式通过设置
p=0
完全禁用退出层,因此在这种情况下,它们的行为是相同的: