Machine learning 已裁剪图像的YOLO注释文件

Machine learning 已裁剪图像的YOLO注释文件,machine-learning,computer-vision,object-detection,yolo,Machine Learning,Computer Vision,Object Detection,Yolo,我正在尝试创建自己的数据集,以便与YOLO一起使用(您只需查看一次)。最初,我从一个大的geotiff文件开始,该文件包含风景和动物的图片。我能够编写一个脚本,将动物的图像提取到单独的文件中 我现在想把这些动物图像作为YOLO数据集的一部分。然而,我在网上看到的所有示例都使用注释文件,它们表示要在较大图像中检测的对象的位置 在我的例子中,每幅动物图片的整体都将包含在边界框中。在这种情况下我能做什么 编辑:我想问的是:我是否仍然可以使用这些已经裁剪过的图像,然后在注释文件上注意到边界框应该覆盖整个

我正在尝试创建自己的数据集,以便与YOLO一起使用(您只需查看一次)。最初,我从一个大的geotiff文件开始,该文件包含风景和动物的图片。我能够编写一个脚本,将动物的图像提取到单独的文件中

我现在想把这些动物图像作为YOLO数据集的一部分。然而,我在网上看到的所有示例都使用注释文件,它们表示要在较大图像中检测的对象的位置

在我的例子中,每幅动物图片的整体都将包含在边界框中。在这种情况下我能做什么


编辑:我想问的是:我是否仍然可以使用这些已经裁剪过的图像,然后在注释文件上注意到边界框应该覆盖整个图像?

简单回答:否。在像Yolo这样的对象检测中,我们希望Yolo识别哪个是对象,哪个是非对象。创建边界框时,Yolo将边界框标识为属于1类的正对象,边界框外部的零件标识为非对象

模型将尝试学习如何区分对象和非对象,以及如何根据训练数据注释在精确坐标(x、y、w、h)上绘制边界框。在这种情况下,Yolo使用锚定框的概念,并且Yolo将根据预测对象的大小调整最近锚定框的大小

创建自定义训练数据集时,yolo需要:带有边框+边框坐标的注释图像,保存在文本文件中,例如:

<object-class> <x_center> <y_center> <width> <height>

所以,为了训练Yolo模型,您需要这些信息


通常,当您已经裁剪了数据集时,我认为它更适合用于图像分类任务。或者,如果您能够创建脚本来区分动物和大型图像,为什么不为相关图像自动创建边界框注释和yolo坐标训练文本文件?

简单回答:不。在像yolo这样的对象检测中,我们希望yolo识别哪个是对象,哪个是非对象。创建边界框时,Yolo将边界框标识为属于1类的正对象,边界框外部的零件标识为非对象

模型将尝试学习如何区分对象和非对象,以及如何根据训练数据注释在精确坐标(x、y、w、h)上绘制边界框。在这种情况下,Yolo使用锚定框的概念,并且Yolo将根据预测对象的大小调整最近锚定框的大小

创建自定义训练数据集时,yolo需要:带有边框+边框坐标的注释图像,保存在文本文件中,例如:

<object-class> <x_center> <y_center> <width> <height>

所以,为了训练Yolo模型,您需要这些信息


通常,当您已经裁剪了数据集时,我认为它更适合用于图像分类任务。或者,如果您能够创建脚本来区分动物和大型图像,为什么不为相关图像自动创建边界框注释和yolo坐标训练文本文件?

因为yolo是一种对象检测工具,而不是对象分类工具,它需要未裁剪的图像来理解对象和背景

为了理解YOLO是如何看待数据集的,请看一下这个

在这幅图中,假设我们需要对一辆汽车(类id-1)进行注释,那么注释将按照以下方式进行:

<class id> <Xo/X> <Yo/Y> <W/X> <H/Y>

在哪里,, 类id,要注释的类的标签索引
Xo,边界框中心的X坐标
Yo,边界框中心的Y坐标
W、 边界框的宽度
H、 边界框的高度
十、 图像的宽度
Y、 图像的高度


有关YOLO注释的更多详细信息,请查看此

,因为YOLO是一种对象检测工具而不是对象分类工具,它需要未裁剪的图像来理解对象和背景

为了理解YOLO是如何看待数据集的,请看一下这个

在这幅图中,假设我们需要对一辆汽车(类id-1)进行注释,那么注释将按照以下方式进行:

<class id> <Xo/X> <Yo/Y> <W/X> <H/Y>

在哪里,, 类id,要注释的类的标签索引
Xo,边界框中心的X坐标
Yo,边界框中心的Y坐标
W、 边界框的宽度
H、 边界框的高度
十、 图像的宽度
Y、 图像的高度


有关YOLO注释的更多详细信息,请查看此

谢谢;这很有帮助。另外,我想我把图像分类和目标检测混为一谈了,所以我很欣赏你在评论中所作的区分;这很有帮助。另外,我想我把图像分类和目标检测混为一谈了,所以我很欣赏你评论中的区别。