Python 零丢包率丢包层
我很难理解PyTorch中辍学层的某些方面 如前所述,该方法的签名是Python 零丢包率丢包层,python,deep-learning,pytorch,dropout,Python,Deep Learning,Pytorch,Dropout,我很难理解PyTorch中辍学层的某些方面 如前所述,该方法的签名是torch.nn.辍学率(p=0.5,inplace=False),其中p是辍学率 当选择p=0时,该层做什么?它是否以任何方式更改其输入?使用p=0相当于标识操作 事实上,在eval模式下设置时,这就是辍学模块的确切行为: 在求值过程中,模块仅计算一个标识函数 p=0相当于不辍学;你在搞什么?谢谢!无论处于train或eval模式,这都是正确的,对吗?@Shireval模式通过设置p=0完全禁用退出层,因此在这种情况下,它们的
torch.nn.辍学率(p=0.5,inplace=False)
,其中p
是辍学率
当选择p=0
时,该层做什么?它是否以任何方式更改其输入?使用p=0
相当于标识操作
事实上,在eval
模式下设置时,这就是辍学模块的确切行为:
在求值过程中,模块仅计算一个标识函数
p=0
相当于不辍学;你在搞什么?谢谢!无论处于train
或eval
模式,这都是正确的,对吗?@Shireval
模式通过设置p=0
完全禁用退出层,因此在这种情况下,它们的行为是相同的: