Tensorflow 图像分类迁移学习是否需要负面示例?

Tensorflow 图像分类迁移学习是否需要负面示例?,tensorflow,keras,neural-network,classification,efficientnet,Tensorflow,Keras,Neural Network,Classification,Efficientnet,任务是确定图像属于或不属于三个类中的哪一个 我收到了一个现成的模型。EfficientNet B4和ImageNet weights应用转移学习识别4个类别:3个目标类别和第4个“无”。后者以不包含任何目标物体的随机图像为例进行训练 问题是这是否是正确的方法——是否需要第四节课 我的直觉是,net应该只在3个目标类上进行培训。如果输出概率低于某个阈值(90%?),则应将图像视为不包含任何目标对象。我说得对吗?由于softmax功能的性质和网络的训练方式,您需要第四节课 让我们来看一个具体的例子:

任务是确定图像属于或不属于三个类中的哪一个

我收到了一个现成的模型。EfficientNet B4和ImageNet weights应用转移学习识别4个类别:3个目标类别和第4个“无”。后者以不包含任何目标物体的随机图像为例进行训练

问题是这是否是正确的方法——是否需要第四节课


我的直觉是,net应该只在3个目标类上进行培训。如果输出概率低于某个阈值(90%?),则应将图像视为不包含任何目标对象。我说得对吗?

由于softmax功能的性质和网络的训练方式,您需要第四节课

让我们来看一个具体的例子:你训练你的人际网络来区分苹果、橘子和香蕉。然而,你不知怎的得到了一张李子的照片

乍一看,您可能会感到惊讶,但您需要数据集中的另一个类。不能保证使用阈值将有助于消除其他类

您可能会遇到以下两种情况:

  • 假设您在未知的N+1类上进行测试,那么对于未知类,输出概率保证为1/N

  • 一个特定的阈值,超过这个阈值(就像你假设的)感谢分享你的经验!选择“负面”图像进行训练似乎非常重要——不仅仅是随机图像?正如我在某处读到的,最初用于训练网络的ImageNet代表了整个“图像世界”的“知识”。因此,添加负面示例不会带来任何全新的效果?好吧,主要的区别在于,通过迁移学习,大量预先训练的特征被迁移,从而大大简化了学习问题。此外,您还可以通过迁移学习获得更好的结果/更高的准确性。然而,这并不意味着添加负面示例不会带来重要的变化:您仍然需要在自己的数据集(在这些n类上)上训练问题。同样,您可能只希望,如果由于数据集庞大且多样,因此传输了大量功能,那么它将消除任何可能的问题(拆分组件)。想法是,它不会消除任何问题,但会缓解您想要解决的实际问题(通过迁移学习,培训进展更快,你也可以取得更好的效果)。最终,如果你想区分苹果、橙子、李子和“其他水果”,你仍然需要创建名为“其他水果”的第四个类,其中将包含许多水果的示例。