Python 在图像上跨越二维模型以生成标签图像(不是卷积)

Python 在图像上跨越二维模型以生成标签图像(不是卷积),python,tensorflow,machine-learning,neural-network,Python,Tensorflow,Machine Learning,Neural Network,我有一个从RGB图像样本中训练出来的模型,它以31x31像素区域作为输入,并为中心像素生成一个分类 我希望将此模型应用于整个图像,以便有效地恢复每个像素的新分类图像。因为这不是卷积,我不确定在TensorFlow中做这件事的首选方法是什么 我知道这是可能的,通过将图像分解成一吨更小的张量进行推断,但这似乎是一个巨大的浪费,因为每个像素将被复制961次。有办法解决这个问题吗 使您的模型成为一个完全卷积的神经网络,因此对于31x31图像,它将生成一个单标签,对于62x62图像,它将生成2x2标签,依

我有一个从RGB图像样本中训练出来的模型,它以31x31像素区域作为输入,并为中心像素生成一个分类

我希望将此模型应用于整个图像,以便有效地恢复每个像素的新分类图像。因为这不是卷积,我不确定在TensorFlow中做这件事的首选方法是什么


我知道这是可能的,通过将图像分解成一吨更小的张量进行推断,但这似乎是一个巨大的浪费,因为每个像素将被复制961次。有办法解决这个问题吗

使您的模型成为一个
完全卷积的
神经网络,因此对于
31x31
图像,它将生成一个
单标签
,对于
62x62
图像,它将生成
2x2
标签,依此类推。这将删除您在窗口方法中提到的冗余计算


如果网络有一个完全连接的层,可以使用
1x1
内核将其替换为卷积层。

等等什么?为什么有人真的读过这个问题?我想你是说32x32图像通过31x31窗口获得2x2输出。