文章目录
- DHC: Dual-Debiased Heterogeneous Co-training Framework for Class-Imbalanced Semi-supervised Medical Image Segmentation
- 摘要
- 方法
- Distribution-aware Debiased Weighting (DistDW)
- Difficulty-aware Debiased Weighting (DiffDW)
- 实验结果
DHC: Dual-Debiased Heterogeneous Co-training Framework for Class-Imbalanced Semi-supervised Medical Image Segmentation
摘要
该研究针对三维医学图像的体积级标注需求专业性高、耗时长的问题,因此半监督学习(SSL)在利用有限标注数据进行训练方面尤为重要。然而,类别不平衡的严重问题成为限制这些方法在实际应用中的瓶颈,但却鲜有解决方案。
为解决这一问题,提出了一种新颖的双重去偏异构协同(DHC)框架,用于半监督三维医学图像分割。
提出了两种损失加权策略,即分布感知去偏加权(DistDW)和困难感知去偏加权(DiffDW),这两种策略动态地利用伪标签引导模型解决数据和学习偏差。该框架通过同时训练这两个不同且准确的子模型显著改善了性能。
方法
图1. (a)Synapse数据集中前景类别的分布情况。(b)比较了每个类别的提出的DistDW方法的比例排名和Dice值。(c)比较了每个类别的体素数量和Dice值,x轴上的值是DiffDW和DistDW模型之间Dice值的差异。
Distribution-aware Debiased Weighting (DistDW)
强制模型更加关注少数类来重新平衡学习过程
Difficulty-aware Debiased Weighting (DiffDW)
盲目地强迫模型优先考虑少数类可能会进一步加剧学习偏差,因为一些具有挑战性的类别可能无法学习到足够的程度。为了缓解这个问题,我们设计了DiffDW,以迫使模型专注于最困难的类别(即学习速度较慢且性能较差的类别),而不是少数类。困难性以两种方式建模:学习速度和性能。使用Population Stability Index来衡量第t个迭代后每个类别的学习速度
实验结果