Deep learning 损失之间的权衡?

Deep learning 损失之间的权衡?,deep-learning,pytorch,loss-function,ssim,tradeoff,Deep Learning,Pytorch,Loss Function,Ssim,Tradeoff,我一直在做一项超分辨率任务。我有一个关于确定损失函数的问题,所以在手头的任务中,我想用SSIM作为损失函数来训练我的模型。我确实得到了一组很好的结果。最近我遇到了知觉损失函数,我们比较了预训练模型如何看待地面真实(GT)图像和超分辨率(SR)图像(模型生成的图像)。我的问题是,我正在考虑使用两种((1-SSIM(SR,GT))+感知损失(SR,GT))损失进行反向传播,那么我应该在这两种损失之间使用一个折衷参数吗?如果是,我如何设置这些权衡参数?或者我应该以相等的权重加上这些损失 PS:感知损失

我一直在做一项超分辨率任务。我有一个关于确定损失函数的问题,所以在手头的任务中,我想用SSIM作为损失函数来训练我的模型。我确实得到了一组很好的结果。最近我遇到了知觉损失函数,我们比较了预训练模型如何看待地面真实(GT)图像和超分辨率(SR)图像(模型生成的图像)。我的问题是,我正在考虑使用两种((1-SSIM(SR,GT))+感知损失(SR,GT))损失进行反向传播,那么我应该在这两种损失之间使用一个折衷参数吗?如果是,我如何设置这些权衡参数?或者我应该以相等的权重加上这些损失


PS:感知损失是通过从预先训练的模型中找到GT和SR图像的特征图之间的SSIM来计算的

我怀疑这两者之间的折衷参数值是否有很好的理论依据。您可能需要设置某种形式的超参数搜索来找到一个好的比例。一个好的开始可能是缩放其中一个术语,使它们具有相同的平均大小。@user14709645您在tensorflow2上实现了SSIM损失吗?我使用pytorch!这很好,因为包的SSIM实现速度快了(2-3倍)。你可能会考虑这一点。我怀疑两者之间的折衷参数的价值有很好的理论依据。您可能需要设置某种形式的超参数搜索来找到一个好的比例。一个好的开始可能是缩放其中一个术语,使它们具有相同的平均大小。@user14709645您在tensorflow2上实现了SSIM损失吗?我使用pytorch!这很好,因为包的SSIM实现速度快了(2-3倍)。你可以考虑一下。