随手把一篇论文的创新部分抽取出来
MLF
为了更好地聚合每一层的上采样特征信息和MSR块的信息,在解码路径中使用了MLF块,这允许最大限度地重用功能,从而减少细节的损失。MLF块的结构如图2所示。
如图2所示,有两种输入:input1和input2。输入1的处理过程如下:首先,当前等级之前的所有等级中的MSR块的信息经过DropBlock层,DropBlock层是特征图中相邻元素的随机丢弃区域,以块为单位。DropBlock可以有效地防止卷积网络过拟合。然后,为了降低通道的维度,在DropBlock层之后使用1 × 1卷积。然而,由于先前的MSR块特征分辨率不同,网络无法直接将信息从浅层传递到深层节点。为了使所有先前的MSR块和输入2对应的上采样特征图在相同的分辨率级别上,对上述不同的输入特征采用异步最大池化操作和转置卷积操作。最后,输出它们的融合特征图。
Attention block
注意块包括通道注意部分和空间注意部分。本文采用了一种将空间特征和通道特征连接起来的并行结构方法。通过同时提取空间和通道的信息,我们可以同时获得血管像素和非血管像素,并获得不同特征的相对位置。块的结构如图3所示。
Channel attention
通道注意力部分的主要功能是保留特征通道之间的结构信息。常见的通道注意力,如SENet[10]和gsopc - net[17],在深度学习中被广泛应用。然而,他们致力于通过学习每个通道的权重来生成通道注意力图,这不可避免地增加了网络的复杂性。最近提出的ECANet[18]实现了优越的性能,主要是因为它避免了降维操作,使用了跨通道的信息交互。因此,本文将ECANet应用于通道注意力。
在图3的通道注意力结构中,首先,输入Fc∈RHis用于×W×C 异步max-pooling和average-pooling,分别得到Fmpc和Fapc的通道描述;由于图像的不同通道之间提取的特征具有局部周期性,因此使用大小为K的1D卷积来允许信息在相邻通道之间流动,而不是传统的FC层。接下来,将所有获得的特征进行添加,以获得更有效的集成信息。最后,可以通过使用Sigmoid激活函数来生成通道的权重图,该函数通过将其与outc 原始输入特征图相乘来生成输出图f。简而言之,公式为Eqs。(1)、(2)、(3):
在这些方程中,σ代表Sigmoid的激活函数,Fscale代表每个通道经过一维卷积后的权重图。值得一提的是,本文中一维卷积的核设为3 (k = 3,即有3个邻居参与这个通道的注意力预测)。
Spatial attention
空间注意力可以注意到关键信息的位置,增强有用特征的提取能力。在图3的空间注意力部分,特征图Fs∈RHfirst沿通道生成×W×C Fmps和Faps,其中Fmps输入到max-pooling, Fsap输入到average-pooling。然后是一个7 × 7的卷积层,接下来是Sigmoid激活函数层,其输出为空间图。最后,它与原始特征图相乘,然后是一个新特征得到地图Fouts。公式为Eqs。(4)、(5)、(6):
其中σ为Sigmoid激活函数,使用7 × 7的卷积核提取更重要的空间特征,获取更多的目标图像位置信息。
MSR block
传统残差块由2个堆叠的3 × 3卷积和跳跃连接[9]组成,可以降低网络退化和梯度消失的风险。但由于其卷积核结构过于简单,特征提取能力有限。因此,为了提高网络对图像特征的提取和传递能力,设计了一个具有多尺度残差结构的MSR块。图4给出了MSR的详细结构。
在图4中,MSR块由三个分支组成。其中,第一个分支由2个深度超参数卷积层(deep -wise over-parame -terized convolutional layers, DO-Conv)[19]组成,它允许通过为每个输入通道使用额外的具有不同2D核的深度可分离卷积来增强卷积层。同时,这样的层可以在不增加网络计算复杂度的情况下增强网络的精度。第二个分支由两个扩张率为3的3 × 3卷积组成,可以在不增加有效单元数量的情况下,扩大感知范围,提取更多的图像特征。第三支由一个3 × 3卷积和非对称卷积块组成,非对称卷积块由1 × 3卷积和3 × 1卷积组成。非对称卷积块可以抑制网络的过拟合,同时提高网络的非线性可扩展性。因此,它可以提取更多具有多元特征的空间信息,其提取过程也更加稳定。将三个分支并行的输出相加,再通过DropBlock层和attention block层。最后通过跳跃连接将注意力块的输出与原始输入相结合。DropBlock层可以有效防止过拟合,注意力块层可以通过重新校准三个分支的特征来提取更多有用的信息,而原始输入的跳跃式连接,可以避免网络前向传播过程中信息的丢失。
创新点:MLF block,Attention block,MSR block
结果