Tensorflow 用于对象检测API的图像大小

Tensorflow 用于对象检测API的图像大小,tensorflow,object-detection,Tensorflow,Object Detection,是否存在运行对象检测API中可用的对象检测网络的最佳大小?API似乎接受各种大小的图像,但我不清楚图像的类型以及在传送到网络之前如何重新缩放图像。 你能澄清一下吗 谢谢 答案取决于您运行的型号。对于我们的SSD型号,我们将把图像重塑为300x300像素。对于FasterRCNN或RFCN,我们将在600-1024像素之间重塑形状 用户应添加到TFRecord中的图像可以是任意大小,但出于内存原因,我们建议用户保持尽可能小的大小(即SSD的每个维度最大约400-600px,FasterRCNN或R

是否存在运行对象检测API中可用的对象检测网络的最佳大小?API似乎接受各种大小的图像,但我不清楚图像的类型以及在传送到网络之前如何重新缩放图像。 你能澄清一下吗


谢谢

答案取决于您运行的型号。对于我们的SSD型号,我们将把图像重塑为300x300像素。对于FasterRCNN或RFCN,我们将在600-1024像素之间重塑形状

用户应添加到TFRecord中的图像可以是任意大小,但出于内存原因,我们建议用户保持尽可能小的大小(即SSD的每个维度最大约400-600px,FasterRCNN或R-FCN的每个维度最大约1500px)。

有一个名为的脚本负责此操作。因此,每当您将图像馈送到网络时,它都必须经过此预处理,并确保根据您的网络配置文件正确调整图像大小以匹配网络


而实际的大小调整正在发生。

对于保存的模型的预测,我们应该首先重塑图像还是将其按原样输入到图像张量0中?我在更快的rcnn模型上看到了45秒/幅的预测时间。尝试调试。但是简单的调整大小会扭曲所有输入图像(更多,更少),这不会对检测质量产生负面影响吗?我对此困惑了一段时间,你可能是问这个问题的合适人选:)大型卫星图像的最佳做法是什么,例如6000x4000,你想在图像中连续识别特征框?