本文共 906 字,大约阅读时间需要 3 分钟。
(在做语义分割的过程中,用到了LovaszSoftmax。针对本人的数据集,多分类时,LovaszSoftmax的效果优于CrossEntropy;二分类时,dice loss相对较好。
仅限本人的数据集,若有更好的方法和结果,欢迎留言讨论。
鉴于此,转载了一篇关于LovaszSoftmax的博客,记录一下心路历程。以下是转载,偷个懒 ^_^ )
==================================================================================================
论文:
Github:
CVPR2018
论文提出了LovaszSoftmax,是一种基于IOU的loss,效果优于cross_entropy,可以在分割任务中使用。最终在Pascal VOC和 Cityscapes 两个数据集上取得了最好的结果。
cross_entropy loss:
Softmax 函数:
Jaccard index :
优化的IOU loss:
论文贡献:
定义1:
定义2:
得出:
(1)对于前景背景分割的问题,使用Lovasz hinge
(2)对于多类别分割问题,使用Lovasz-Softmax loss
前景背景分割:
多类别分割:
优化的IOU:
实验结果:
(a)中第一个图为label,第二个图为特征,通过对第一个图进行高斯滤波
fi ∼ N (e; 1) ,e=1/2对于前景,e=-1/2对于背景。
(b)Lovasz hinge 的bias的绝对最小值和Jaccard loss 最接近
二类分割:
多类分割:
总结:
分割任务可以使用的loss,相比cross entropy具有更好的效果。