Machine learning 训练全卷积神经网络的子面片生成机制

Machine learning 训练全卷积神经网络的子面片生成机制,machine-learning,tensorflow,computer-vision,deep-learning,caffe,Machine Learning,Tensorflow,Computer Vision,Deep Learning,Caffe,我有一个图像集,由300个图像对组成,即原始图像和遮罩图像。典型的遮罩图像如下所示。每个图像的大小为800*800。我正在尝试为这个图像集训练一个完全卷积的神经网络模型来执行语义分割。我试图从原始图像生成小面片(256*256),用于构建训练集。对于此补丁采样过程,是否有建议的策略?当然,随机抽样是一种简单的方法。这里用黄色前景类标记的区域通常占整个图像集图像区域的25%。它倾向于反映不平衡的数据集 如果训练完全卷积架构,假设800x800输入和25x25输出(在五个2x2池层之后,25=800

我有一个图像集,由300个图像对组成,即原始图像和遮罩图像。典型的遮罩图像如下所示。每个图像的大小为800*800。我正在尝试为这个图像集训练一个完全卷积的神经网络模型来执行语义分割。我试图从原始图像生成小面片(256*256),用于构建训练集。对于此补丁采样过程,是否有建议的策略?当然,随机抽样是一种简单的方法。这里用黄色前景类标记的区域通常占整个图像集图像区域的25%。它倾向于反映不平衡的数据集


如果训练完全卷积架构,假设
800x800
输入和
25x25
输出(在五个
2x2
池层之后,
25=800/2^5
)。尝试直接构建
25x25
输出,并直接对其进行培训。您可以在损失函数中为“正”标签添加更高的权重,以使其与“负”平衡


我绝对不建议采样,因为这将是一个昂贵的过程,并且不是完全卷积的。

为什么要采样补丁?为什么不处理整个图像,可能还有丢失的采样像素?只有300个图像对,这表示训练FCN的数据集太小。嗨,MZhm,直接在25*25输出上训练是什么意思?如果我们不使用采样过程,我们只有300个图像对,这对于训练深度学习模型来说是不是太小了?此外,对于基于FCN的语义分割,输出的大小应与输入的大小相同。对于向上采样回原始图像大小,我建议您阅读关于
tf.nn.conv2d_transpose
。对于采样,在整个图像上进行过度训练没有任何好处。(请记住,输出不是单个预测,在上面的示例中,它是25x25预测的空间网格)至于300是否足够的问题。。。只有一种方法可以检查——训练并测试它