Neural network 退出实现:在Caffe中,一批中的所有图像是否都获得相同的掩码?

Neural network 退出实现:在Caffe中,一批中的所有图像是否都获得相同的掩码?,neural-network,deep-learning,caffe,Neural Network,Deep Learning,Caffe,我只是想确认是否所有的图像在一个小批量得到相同的辍学面具或没有 为了澄清:假设一个1000大小的向量以100的小批量通过了退出层。 现在,第一个图像向量的第21和31个元素被删除。 是否有必要为批处理中剩余的99个图像删除第21个和第31个元素?还是每个图像都有一个单独的掩码?不,批处理中的每个图像都有一个独立的、完全随机的掩码 实际上,甚至不关心输入的形状:它计算底部Blob中的元素数(即,对于10个图像、3个通道和224x224的批量大小,它将是10*3*224*224=1505280),并

我只是想确认是否所有的图像在一个小批量得到相同的辍学面具或没有

为了澄清:假设一个1000大小的向量以100的小批量通过了退出层。 现在,第一个图像向量的第21和31个元素被删除。
是否有必要为批处理中剩余的99个图像删除第21个和第31个元素?还是每个图像都有一个单独的掩码?

不,批处理中的每个图像都有一个独立的、完全随机的掩码

实际上,甚至不关心输入的形状:它计算底部Blob中的元素数(即,对于10个图像、3个通道和224x224的批量大小,它将是
10*3*224*224=1505280
),并生成相同数量的独立随机数