本文内容:在不同位置添加DTAB模块
目录
论文简介
1.步骤一
2.步骤二
3.步骤三
4.步骤四
论文简介
盲点网络(BSN)一直是自监督图像去噪(SSID)中流行的神经架构。然而,大多数现有的 BSN 都是基于卷积层构建的。尽管在许多图像修复任务中,Transformer 已显示出克服卷积局限性的潜力,但其注意力机制可能会违反盲点要求,从而限制了其在 BSN 中的应用。为此,我们提出分析并重新设计通道和空间注意力,以满足盲点要求。具体而言,在多尺度架构中,通道自注意力可能会泄露盲点信息,因为下采样会将空间特征混入通道维度。为了解决这个问题,我们将通道分成若干组,并分别执行通道注意力。对于空间自注意力,我们对注意力矩阵应用精心设计的掩码,以限制并模拟扩张卷积的感受野。基于重新设计的通道和窗口注意力,我们构建了一个基于Transformer 的盲点网络(TBSN),它表现出强大的局部拟合和全局视角能力。此