Keras CNN非常规下采样

Keras CNN非常规下采样,keras,conv-neural-network,downsampling,max-pooling,Keras,Conv Neural Network,Downsampling,Max Pooling,我是CNNs的新手,正在使用KERA构建一个模型,以组合来自多个来源的输入。我的两个源具有不同的维度,不能用整数(即x2或x3更小)进行缩放。因此,简单的最大池将不起作用。我很难弄清楚如何缩小大图像的采样。具体尺寸如下: 图像1:7000 x 4000 图2:2607 x 1370 是否有处理非常规下采样的最佳实践 我正在应用Conv2D层,我认为将适当大小的过滤器(1787x1261,步幅=1)与最大池(2x2,步幅=2)相结合,可以得到正确的尺寸。为什么这是个坏主意?与图像的总大小相比,这看

我是CNNs的新手,正在使用KERA构建一个模型,以组合来自多个来源的输入。我的两个源具有不同的维度,不能用整数(即x2或x3更小)进行缩放。因此,简单的最大池将不起作用。我很难弄清楚如何缩小大图像的采样。具体尺寸如下:

图像1:7000 x 4000

图2:2607 x 1370

是否有处理非常规下采样的最佳实践

我正在应用Conv2D层,我认为将适当大小的过滤器(1787x1261,步幅=1)与最大池(2x2,步幅=2)相结合,可以得到正确的尺寸。为什么这是个坏主意?与图像的总大小相比,这看起来确实是一个很大的过滤器


有点相关,在完整图像的较小块上运行模型会更好吗?这样我就可以控制每个块的大小了?

这取决于您试图预测的内容(分类与分段),但为什么不将输入调整到适当的大小作为预处理步骤呢?我经常看到这种方法,尤其是在使用预先训练好的网络时。实际上,我正在尝试回归。重新调整尺寸是一个好主意,因为这是一个预处理步骤。你有什么建议吗?像scypy的imresize或cv2的resize或其他一些功能?两者都可以正常工作。我不知道这些高分辨率图像中有多少细节,但我建议对它们进行大幅降采样以减少训练时间。我最多从128x128或512x512开始,除非这会丢失重要信息。我不知道您试图回归哪些信息,但我建议您遵循这些原则。我会用几种不同的方法将每幅图像分割,以增加训练数据,并将你试图检测到的东西在两幅图像之间分割的影响降至最低。不,我认为30%的重叠实际上会增强训练数据集。为了增加更多训练示例的图像数据,通常需要移动、缩放、翻转和剪切训练图像。听起来是个有趣的项目!