Neural network 我们可以从图像分割任务中创建显著性映射吗?

Neural network 我们可以从图像分割任务中创建显著性映射吗?,neural-network,deep-learning,reproducible-research,Neural Network,Deep Learning,Reproducible Research,我还知道,显著图也是一种图像分割任务。 但它已被广泛用于解释性深度学习(Read GradCam等)。 我还看到了这篇论文() 这是关于类显著性映射的,当涉及到图像分割时,这是一个很好的例子。请告诉我这个概念是否存在于图像分割中,或者我需要阅读更多关于这个主题的内容。分类显著性贴图,如中所述,解释这样的贴图描述了每像素的变化对预测的影响程度。因此,我认为没有理由不能将其应用于图像分割任务 然而,分割任务和显著性图产生的图像必须进行不同的解释。在图像分割任务中,输出是像素是否属于某一类的每像素预测

我还知道,显著图也是一种图像分割任务。 但它已被广泛用于解释性深度学习(Read GradCam等)。 我还看到了这篇论文()
这是关于类显著性映射的,当涉及到图像分割时,这是一个很好的例子。请告诉我这个概念是否存在于图像分割中,或者我需要阅读更多关于这个主题的内容。

分类显著性贴图,如中所述,解释这样的贴图描述了每像素的变化对预测的影响程度。因此,我认为没有理由不能将其应用于图像分割任务

然而,分割任务和显著性图产生的图像必须进行不同的解释。在图像分割任务中,输出是像素是否属于某一类的每像素预测,有时以确定性分数的形式

类显著性映射描述每个像素的变化程度,该像素的变化程度将改变分类器的得分。或者引用上面的文章:“哪些像素需要更改得最少,才能最大程度地影响课堂分数”

编辑:添加示例。 假设一个像素因为属于“狗”类而得到99%的分数,我们可以相当肯定这个像素实际上是狗的一部分。显著性贴图可以显示同一像素的低分数。这意味着稍微更改该像素不会影响属于类“Dog”的像素的预测。根据我到目前为止的经验,每像素类概率图和显著性图都显示出一些相似的模式,但这并不意味着它们被解释为相等的

我遇到的一段代码可以应用于pytorch模型(来自Nikhil Kasukurthi,不是我的),可以在上找到