【医学图像分割 2024】BEFUnet

文章目录

  • 【医学图像分割 2024】BEFUnet
    • 摘要
    • 1. 介绍
    • 2. 相关工作
      • 2.1 基于CNN的分割网络
      • 2.2 ViT
      • 2.3 用于医学图像分割的Transformer
    • 3. 方法
      • 3.1 双支路编码器
        • 3.1.1 边缘编码器
        • 3.1.2 主体编码器
      • 3.2 LCAF模块
        • 3.2.1 双级融合模块(DLF)
      • 3.3 损失函数
        • 3.3.1 边缘监督损失
        • 3.3.2 整体边缘损失

【医学图像分割 2024】BEFUnet

论文题目:BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image Segmentation

中文题目:BEFUnet: 用于精确医学图像的混合 CNN 变换器架构 分割

论文链接:https://arxiv.org/abs/2402.08793

论文代码:Omid-Nejati/BEFUnet: A Hybrid CNN-Transformer Architecture for Precise Medical Image Segmentation (github.com)

论文团队:伊朗科技大学电气工程学院,伊朗德黑兰

发表时间:

DOI:

引用:

引用数:

摘要

医学图像的准确分割对于各种医疗保健应用至关重要。卷积神经网络(cnn),特别是像U-Net这样的全卷积网络(fcn)在医学图像分割任务中取得了显著的成功。然而,它们在捕获全局上下文和远程关系方面存在局限性,特别是对于形状、规模和纹理具有显著变化的对象。虽然Transformer在自然语言处理和图像识别方面取得了最先进的成果,但由于图像局部和平移不变性问题,它们在医学图像分割方面面临挑战。为了解决这些挑战,本文提出了一种创新的u型网络BEFUnet,该网络增强了身体和边缘信息的融合,以实现精确的医学图像分割。BEFUnet包括三个主要模块,包括新颖的局部交叉注意特征(LCAF)融合模块新颖的双电平融合(DLF)模块双支路编码器。双支路编码器由边缘编码器和主体编码器组成。边缘编码器使用PDC块进行有效的边缘信息提取,而主体编码器使用SwinTransformer捕获全局关注的语义信息。LCAF模块通过选择性地对两种模式之间空间接近的特征进行局部交叉关注,有效地融合了边缘和身体特征。与全局交叉注意相比,这种局部方法显著降低了计算复杂度,同时保证了准确的特征匹配。BEFUnet在医学图像分割数据集的各种评估指标上展示了优于现有方法的性能。BEFUnet中CNN和transformer架构的协同作用在处理不规则和具有挑战性的边界方面表现出色,使其成为推进医学图像分割任务的一种有前途的方法。我们的代码在GitHub上是公开的。

1. 介绍

医学图像分割在计算机视觉中至关重要,它为全面分析提供了对解剖区域的重要见解,并帮助医疗保健专业人员进行损伤可视化、疾病监测和治疗计划。cnn,尤其是像U-Net[36]这样的全卷积网络(fully convolutional networks, fcn)[32]已经成为主流方法,在各种医学应用中取得了显著的成功,如心脏、器官和息肉的分割。自动医学图像分割领域因其减轻放射科医生劳动密集型任务的潜力而获得了极大的关注。FCNs及其变体,包括SegNet[2]、U-Net[36]、DenseNet[4]和DeepLab[9],通过从MRI、CT扫描、PET/CT扫描和其他医学成像方式中进行准确分割,在加强医学诊断和治疗方面发挥了至关重要的作用。

基于cnn的图像分割方法由于其强大的局部平移不变性、表示学习能力和滤波器共享特性而受到广泛青睐。然而,这些方法在捕获远程关系和明确的全局上下文方面存在局限性,特别是对于在纹理、规模和形状上具有较大患者间差异的对象。各种策略,如扩展卷积[51]、图像金字塔[52]、先验引导方法[11]、多尺度融合[18]和自注意机制[35],都试图解决医学图像分割中的这些局限性,但在提取全局上下文特征方面存在弱点。在医学图像分割的成功架构中有FCN和U-Net,它们都在编码器和解码器模块上使用卷积层。U-Net[36]的跳跃连接已被证明在分割任务中是通用的,但卷积层的局域性限制了其在捕获医学图像分割中至关重要的形状和结构信息方面的表示能力。CNN模型在建立远程依赖关系和全局上下文方面的有限性能进一步阻碍了其在图像分割方面的有效性。在医学图像分割的CNN架构中,解决这些挑战仍然是一个持续的追求。

最近在自然语言处理(NLP)中Transformer的成功[44]导致了视觉Transformer的发展,以克服CNN在图像识别任务中的局限性[14]。视觉Transformer利用多头自我注意(MSA)来建立长期依赖关系并捕获全局上下文。然而,普通的视觉Transformer需要大量的数据来泛化,并且具有二次复杂度。各种方法,如DeiT[40]、Swin Transformer和金字塔视觉Transformer旨在解决这些限制。虽然Transformer在图像分类和语义分割方面取得了最先进的(SOTA)结果,但它们的高计算能力要求阻碍了实时应用,如放疗。为了解决CNN模型的局限性,Vision Transformer (ViT)模型利用了MSA机制,与基于卷积的方法相比,实现了SOTA性能。混合Transformer架构将Transformer与基于cnn的网络集成在一起,而纯Transformer(如swan - unet和其他Transformer)将Transformer应用于编码器和解码器,以在多个级别上进行全局特征表示。尽管Transformer器具有捕获全局依赖关系的能力,但它们在图像局部性和平移不变性方面存在问题,影响了器官边界的准确分割

视觉Transformer的最新进展强调了多尺度特征表示的重要性。DSTransUNet[29]、CrossViT[7]和HRViT[18]引入双支路Transformer架构来提取上下文信息,增强细粒度特征,改进语义分割。在医学图像处理中,研究人员探索多分支架构来解决挑战,例如Valanarasu等人[43]使用欠完全和过完全编码器,Lin等人[29]使用双分支SwinTransformer,Zhu等人[55]利用不同的分支来处理不同的数据模式并实现卓越的性能。这些多分支模型在处理医学图像中的复杂特征方面显示出良好的前景。

尽管视觉Transformer有能力捕捉全局上下文表征,但它们的自注意机制可能忽略低级特征。为了解决这一问题,TransUnet[8]和LeVitUnet[49]等混合CNN-transformer方法将cnn的局域性与Transformer的远程依赖性相结合,对医学图像分割中的全局和局部特征进行编码。然而,这些方法面临着如何有效地结合高阶和低阶特征,同时保持特征一致性和正确利用分层编码器产生的多尺度信息的挑战。此外,许多现有的基于深度学习的医学图像分割方法往往只关注身体特征,而忽略了边缘信息的重要性。一些研究,如Kuang等[26]和Yang[50],试图通过将边缘特征与身体特征分离或将其作为附加约束来纳入边缘特征。然而,这些方法并没有充分发挥边缘特征在医学图像分割中的潜力。

在本文中,我们引入了一种名为Body and Edge Fusion Unet (BEFUnet)的创新网络,该网络旨在通过增强边缘和身体信息的融合来实现精确的医学图像分割。BEFUnet由三个关键模块组成:双支路编码器、双电平融合(DLF)模块和局部交叉注意特征融合(LCAF)模块。双分支编码器使用轻量级的cnn分支和基于SwinTransformer的分层Transformer分支同时提取边缘和主体信息。LCAF通过考虑位于两个分支之间的位置的特征,有效地融合了跨模态特征,从而提高了精度,同时降低了计算复杂度。此外,DLF模块是一个多尺度视觉Transformer,采用交叉注意机制融合两个获得的特征映射。提出的BEFUnet不仅解决了上述问题,而且在各种评价指标方面优于其他方法。我们的主要贡献:

将CNN的边缘局部语义信息与Transformer的身体上下文交互相结合,增强互补特征的集成的新型混合方法。在医学图像分割中,这种方法在处理不规则和具有挑战性的边界时特别有利。

  • 我们引入了一个双级融合模块,它有效地融合了粗粒度和细粒度的特征表示。
  • 我们的实验结果强调了BEFUnet的显著有效性,因为我们在三个不同的医学图像分割数据集上精心训练和评估了我们的模型。
  • 在我们的综合比较中,BEFUnet始终优于各种最先进的模型,证实了其在处理不同数据集的各种分割挑战方面的鲁棒性和优越性。

2. 相关工作

2.1 基于CNN的分割网络

在早期医学图像分割中,传统的机器学习算法被广泛使用[41]。然而,随着深度cnn、U-Net的出现,情况发生了变化[36],其变体变成了强大的替代方案。U型结构的简单性和优越的性能使其成为二维和三维医学图像分割场景的热门选择。在医学图像分割领域,研究的重点主要转向了cnn及其变体的应用,以获得准确高效的分割结果。研究人员引入了各种方法来解决FCN的局限性[32]。这些方法包括融合不同层的输出,使用扩展卷积[51],以及使用上下文建模[52]。此外,u型编码器-解码器结构,如U-Net及其变体,因其进一步增强了医学成像任务的性能而引起了极大的关注。在这些架构中,U-Net[36]已经成为医学图像分析的标准选择。它由一个对称的编码器和解码器网络组成,具有跳跃连接,具有很高的效率。在这一成功的基础上,一些类似U-net的架构被提出,如Res-UNet[47]、Dense-UNet[4]、Kiu-Net[43]和U-net++[54]。这些变体中的每一个都提供了改进和适应,以满足不同的医学成像任务。例如,unet++在模块之间引入了密集的跳过连接,从而改善了结果。因此,这些结构在各个医学领域都表现出出色的性能。尽管基于cnn的医学图像分割方法取得了显著进展,但由于卷积运算固有的局部性和复杂的数据访问模式,在分割精度和效率方面仍然存在局限性。人们将继续努力解决这些挑战,并进一步提高医学图像分割模型的能力

2.2 ViT

近年来,基于Transformer的模型在各个领域,特别是在自然语言处理领域取得了显著的成功。这些模型在机器翻译等任务中实现了SOTA性能[44]。此外,随着视觉Transformer(vision Transformer, ViT)的引入,它们的应用已扩展到视觉任务[14]。ViT在图像识别方面展示了令人印象深刻的速度精度权衡;然而,它需要在大数据集上进行预训练。为了解决这一限制,已经努力提高ViT在ImageNet上的性能,从而产生了Deit[40],其中包含了改善结果的训练策略。此外,另一个值得注意的视觉Transformer是Swin Transformer[31],它是一种分层模型,可作为高效的视觉骨干。Swin Transformer在图像分类、目标检测和语义分割任务中达到了SOTA性能。

2.3 用于医学图像分割的Transformer

在医学分割的背景下,研究人员已经探索了基于transformer的模型的潜力[46,53,17,37]。已经引入了几种变体,例如MedT[42],它将门控轴向Transformer层集成到现有架构中,以及TransUNet[8],它将transformer和cnn结合起来,以利用各自的优势。此外,swin-unet[5]在u型编码器-解码器架构中采用纯transformer进行全局语义特征学习。这些基于transformer的方法有望克服CNN模型的局限性,CNN模型由于其受限制的接受域而难以进行长期依赖建模。通过结合全局和局部信息,这些混合模型旨在改进医学图像3D和2D分割的特征提取[55,3,28]。

为了进一步增强边缘和身体信息的融合,提出的BEFUnet架构脱颖而出。BEFUnet采用了一种新颖的基于transformer的融合方案,保证了二维医学图像分割的特征一致性和丰富性。该方法解决了其他混合模型中简单的特征融合机制的局限性,并保证了包含丰富信息的更有效的特征映射,从而改善了分割结果。

3. 方法

BEFUnet的框架如图1所示。它由一个双分支编码器、一个称为LCAF的交叉注意特征融合模块和一个DLF模块组成,DLF模块有效地融合了粗粒度和细粒度的特征表示。在接下来的部分中,我们将提供这些组件的详细描述。

image-20240216123317182

3.1 双支路编码器

双支路编码器包括主体编码器和边缘编码器。边缘编码器利用cnn架构和PDC (Pixel Different Convolution, PDC)[39]块有效提取边缘信息。另一方面,正文编码器采用Transformer体系结构来使用全局注意力捕获语义信息。

3.1.1 边缘编码器

边缘特征的提取是图像分割的关键,为了解决传统医学分割网络边缘信息提取不足的问题,引入了专门的边缘检测分支。

如图1所示,边缘编码器由四个阶段组成,每个阶段包含四个PDC块用于特征检测。利用最大池化层对各阶段之间的特征映射进行降采样,得到分层特征。第一阶段将原始的3通道图像扩展到C通道,并将特征映射的大小减小到1/4,以确保与主体编码器的输出大小兼容。

PDC块包括一个深度卷积层、一个ReLU层和一个核大小为1的卷积层。残余连接也包括在模型训练中帮助。由于缺乏明确编码的梯度信息,传统卷积网络在提取边缘相关信息方面存在困难。为了克服这个问题,引入了PDC,将梯度信息集成到卷积运算中,增强了边缘特征。

Vanilla convolution计算卷积核内像素值的加权和,PDC计算内核内像素值差异的加权和。香草卷积和PDC的表达式分别由式(1)和式(2)给出:
y = f ( x , θ ) = ∑ i = 1 k × k w i ⋅ x i (vanilla convolution) y=f(x,\theta)=\sum_{i=1}^{k\times k}w_i\cdot x_i\quad\text{(vanilla convolution)} y=f(x,θ)=i=1k×kwixi(vanilla convolution)

y = f ( ∇ x , θ ) = ∑ ( x i , x i ′ ) ∈ P w i ⋅ ( x i − x i ′ ) (PDC) y=f(\nabla x,\theta)=\sum_{(x_i,x_i')\in P}w_i\cdot(x_i-x_i')\quad\text{(PDC)} y=f(x,θ)=(xi,xi)Pwi(xixi)(PDC)

其中, w i w_i wi表示k × k卷积核中的权重, x i x_{i} xi x i ′ x_{i}^{\prime} xi表示核所覆盖的像素,P表示核所覆盖的局部区域中所选像素对的集合。

为了进一步增强边缘提取,我们采用了一种监督策略[48],即为每个阶段的输出特征生成一个边缘图,并计算生成的边缘图与地面真值之间的损失

3.1.2 主体编码器

主体编码器利用Transformer架构,特别是Swin Transformer[31],对具有全局远程建模的高级特征表示进行编码。Swin Transformer采用滑动窗口机制来构建分层特征,非常适合对不规则形状的器官进行分割。

图1用红色块表示Swin Transformer的总体结构,由四个阶段组成。第一阶段使用一个补丁嵌入层和两个Swin Transformer块对原始图像进行特征编码。图像被分割成大小为P × P的小块,重构成一维向量,投影到c维空间。添加位置参数以编码位置信息,然后将序列通过旋转Transformer块。随后的阶段对特征映射进行采样,并使用补丁合并和Swin Transformer块提取更高级别的特征

SwinTransformer的每一级由两种不同类型的块交替排列组成。第一个块由层归一化(LN)、基于窗口的多头自注意(W-MSA)、多层感知器(MLP)和残差连接组成。第二个块是类似的,但它取代了W-MSA与转移基于窗口的多头自注意(SW-MSA)。这些块内的操作可以用式(3)-(6)表示。
z ^ l = W − M S A ( L N ( z l − 1 ) ) + z l − 1 (3) z l = M L P ( L N ( z ^ l ) ) + z ^ l (4) z ^ l + 1 = S W − M S A ( L N ( z l ) ) + z l (5) z l + 1 = M L P ( L N ( z ^ l + 1 ) ) + z ^ l + 1 (6) \begin{gathered} \hat{z}^{l}=W-MSA(LN(z^{l-1}))+z^{l-1} \text{(3)} \\ z^{l}=MLP(LN(\hat{z}^{l}))+\hat{z}^{l} \text{(4)} \\ \hat{z}^{l+1}=SW-MSA(LN(z^{l}))+z^{l} \text{(5)} \\ z^{l+1}=MLP(LN(\hat{z}^{l+1}))+\hat{z}^{l+1} \text{(6)} \end{gathered} z^l=WMSA(LN(zl1))+zl1(3)zl=MLP(LN(z^l))+z^l(4)z^l+1=SWMSA(LN(zl))+zl(5)zl+1=MLP(LN(z^l+1))+z^l+1(6)
在每个阶段之间,进行补丁合并以downsample feature map并收集上下文特征。

它将相邻的2×2补丁合并成一个更大的补丁,减少了补丁的数量,并将它们的尺寸连接起来,以最大限度地减少信息损失。补丁合并对特征进行2倍的下采样。假设输入图像尺寸为H × W × 3,每个阶段的输出特征尺寸分别为 H 4 × W 4 × C , H 8 × W 8 × 2 C , H 16 × W 16 × 4 C , H 32 × W 32 × 8 C , \frac{H}{4}\times\frac{W}{4}\times C,\frac{H}{8}\times\frac{W}{8}\times2 C,\frac{H}{16}\times\frac{W}{16}\times4C,\frac H{32}\times\frac W{32}\times8C, 4H×4W×C,8H×8W×2C,16H×16W×4C,32H×32W×8C,

然后将提取的边缘和体特征输入LCAF模块进行进一步融合。

3.2 LCAF模块

局部交叉注意融合(LCAF)模块通过选择性地对两种图像模式之间空间上接近的特征进行交叉注意,准确有效地融合边缘和身体特征。该方法克服了传统的交叉关注方法需要存储每个patch的全局信息,不能利用模态之间像素的一对一对应进行精确匹配和全面融合的局限性

图2说明了LCAF模块的结构。它利用具有局部交叉注意的Transformer块来调制近距离的特征。将输入的边缘和体特征划分为局部区域,投影为查询向量、键向量和值向量,通过点积注意力计算注意力分数。对结果向量进行加权和,得到融合的特征表示。LCAF模块还集成了一个多头操作,将向量投影到不同的子空间上,并计算不同子空间中的交叉注意分数。LCAF模块的输出是通过将前馈网络(FFN)应用于调制特征,如如式(9)所示。残差连接用于保持特征完整性。

image-20240216124140479

L C A ( X f ) = s o f t m a x ( X e d g e W Q ( X b o d y W K ) T d k ) X b o d y W v LCA(X_f)=softmax(\frac{X_{edge}W_Q(X_{body}W_K)^T}{\sqrt{d_k}})X_{body}W_v LCA(Xf)=softmax(dk XedgeWQ(XbodyWK)T)XbodyWv

M − L C A ( X f ) = X f + C o n c a t [ L C A ( X f ) 1 , . . . , L C A ( X f ) h ] W o M-LCA(X_f)=X_f+Concat[LCA(X_f)_1,...,LCA(X_f)_h]W_o MLCA(Xf)=Xf+Concat[LCA(Xf)1,...,LCA(Xf)h]Wo

X f = F F N ( M - L C A ( X f ) ) + M - L C A ( X f ) ( 9 ) X_{f}=FFN(M\text{-}LCA(X_{f}))+M\text{-}LCA(X_{f})\quad(9) Xf=FFN(M-LCA(Xf))+M-LCA(Xf)(9)

在这里,Xbody、Xedge和Xf分别是指与边缘模态、体模态和融合模态相对应的特征。可学习矩阵Wk、WQ、WV和Wo分别表示键矩阵、查询矩阵、值矩阵和输出矩阵。与传统的全局交叉注意算法相比,LCAF算法通过选择性地降低了计算复杂度当地cross-attention。假设特征中有h和w个patch, LCA窗口中有hl和wl个patch,全局交叉注意(GCA)和局部交叉注意(LCA)的计算复杂度分别由式(10)和式(11)给出
Ω ( M − G C A ) = 4 h w C 2 + 2 ( h w ) 2 C ( 10 ) Ω ( M − L C A ) = 4 h w C 2 + 2 h l h w ⋅ h w C ( 11 ) \begin{aligned}\Omega(M-GCA)&=4hwC^2+2(hw)^2C\quad&(10)\\\Omega(M-LCA)&=4hwC^2+2h_lh_w\cdot hwC\quad&(11)\end{aligned} Ω(MGCA)Ω(MLCA)=4hwC2+2(hw)2C=4hwC2+2hlhwhwC(10)(11)
LCAF模块输出融合的特征,然后将其馈送到下一阶段。

3.2.1 双级融合模块(DLF)

主要障碍在于如何有效地融合CNN和Swin Transformer的电平特征,同时保持特征的一致性。一种直接的方法是将CNN的电平和它们对应的Swin Transformer电平的和输入到解码器中,得到分割图。然而,这种方法无法确保级别之间的特征一致性,从而导致性能低于标准。因此,我们提出了一个名为DLF的新模块,通过将最小(P s)和最大(P l)水平作为输入,并采用交叉注意机制来融合跨尺度的信息,从而解决了这个问题

通常,较浅的级别包含更精确的定位信息,而较深的级别包含更适合解码器的更多语义信息。为了权衡计算成本和中间层特征映射对模型精度的边际效应,我们选择不将中间层纳入特征融合过程,从而节省计算资源。因此,我们鼓励在保留定位信息的同时对最浅(P s)和最后(P l)层进行多尺度表示

在提议的DLF模块中,类标记起着重要的作用,因为它总结了来自输入特征的所有信息。每个级别都被分配了一个类令牌,该类令牌来自于该级别规范之上的全局平均池(GAP)。

类令牌的获取方法如下:
C L S s = G A P ( N o r m ( P s ) ) C L S l = G A P ( N o r m ( P l ) ) \begin{aligned}CLS^s&=GAP(Norm(P^s))\\CLS^l&=GAP(Norm(P^l))\end{aligned} CLSsCLSl=GAP(Norm(Ps))=GAP(Norm(Pl))
其中cls∈R4D ’ ×1, CLSl∈RD ’ ×1。然后,在将类标记传递到转换器编码器之前,将其与相应的级别嵌入连接起来。

小电平后面跟着S个Transformer编码器,大电平后面跟着L个Transformer编码器来计算全局自关注。值得注意的是,还在两个级别的每个标记中添加了可学习的位置嵌入,以将位置信息合并到Transformer编码器的学习过程中

将嵌入信息通过Transformer编码器后,利用交叉关注模块融合各层特征。在融合之前,两个级别的类标记被交换,这意味着一个级别的类标记与另一个级别的标记连接在一起。然后,每个新的嵌入都单独地通过模块进行融合,并最终反投影到其原始水平。

与来自其他级别的令牌的交互允许类令牌跨级别共享丰富的信息

特别是,对于小水平,这种相互作用如图3所示。f s(.)首先将CLS投影到p1的维度上,得到的输出记为CLS。CLS’s与p1相连接,作为交叉注意计算的键和值,同时也独立作为查询。由于只查询类令牌,所以交叉注意机制在线性时间内运行。最终输出Z s可以用数学形式表示如下:
y s = f s ( C L S s ) + M C A ( L N ( [ f s ( C L S s ) ∥ P l ] ) ) Z s = [ P s ∥ g s ( y s ) ] ( 13 ) \begin{array}{l}y^s=f^s(CLS^s)+MCA(LN([f^s(CLS^s)\parallel P^l]))\\Z^s=[P^s\parallel g^s(y^s)]&(13)\end{array} ys=fs(CLSs)+MCA(LN([fs(CLSs)Pl]))Zs=[Psgs(ys)](13)
image-20240216124521379

3.3 损失函数

由于编码器被设计为同时检测边缘和体特征,我们使用两个损失分量:Ledge和Lbody。

3.3.1 边缘监督损失

我们将这个损失函数应用于编码器的每个阶段生成的边缘映射。对于第j个边缘图中的第i个像素,记为y j i,损耗按以下条件计算:
l i j = { α ⋅ log ⁡ ( 1 − y i j ) if y i = 0 0 if 0 < y i < η β ⋅ log ⁡ y i j otherwise (14) l_i^j=\begin{cases}\alpha\cdot\log(1-y_i^j)&\text{if}y_i=0\\0&\text{if}0<y_i<\eta\\\beta\cdot\log y_i^j&\text{otherwise}\end{cases}\quad\text{(14)} lij= αlog(1yij)0βlogyijifyi=0if0<yi<ηotherwise(14)
其中,y j i表示第j个边缘图中第i个像素的预测值,η为预定义阈值。被标注者标注为正数且比例小于η的像素被认为是负样本。负样本在数据集中的比例用β表示。此外,我们定义α = λ·(1−β),其中λ是用于平衡正负样本的超参数。通过对每个像素的损失求和,得到整体的Ledge损失:
L e d g e = ∑ i , j l i j L_{edge}=\sum_{i,j}l_i^j Ledge=i,jlij

3.3.2 整体边缘损失

医学图像分割面临严重的类不平衡问题,我们采用二元交叉熵损失(Binary Cross-Entropy Loss)和骰子损失(Dice Loss)[34]作为体损失来解决这一问题。

二值交叉熵损失测量像素级预测误差,适用于大多数语义分割场景。可以表示为:
L B c e = − ∑ i = 0 N [ ( 1 − y ^ i ) log ⁡ ( 1 − y i ) + y ^ i log ⁡ ( y i ) ] (16) L_{Bce}=-\sum_{i=0}^N[(1-\hat{y}_i)\log(1-y_i)+\hat{y}_i\log(y_i)]\quad\text{(16)} LBce=i=0N[(1y^i)log(1yi)+y^ilog(yi)](16)
Dice Loss是医学图像分割中广泛使用的一种损失函数,可以有效地处理不平衡样本。

由下式给出:
L D i c e = 1 − 2 × 2 ∑ i = 0 N y i y ^ i ∑ i = 0 N ( y i + y ^ i ) (17) L_{Dice}=1-2\times\frac{2\sum_{i=0}^Ny_i\hat{y}i}{\sum i=0^N(y_i+\hat{y}_i)}\quad\text{(17)} LDice=12×i=0N(yi+y^i)2i=0Nyiy^i(17)
Lbody损失可以表示为二元交叉熵损失和骰子损失的组合:
L b o d y = λ 1 L B c e + λ 2 L D i c e L_{body}=\lambda_{1}L_{Bce}+\lambda_{2}L_{Dice} Lbody=λ1LBce+λ2LDice
最后,结合Ledge和Lbody以及一个加权超参数γ,得到最终损失L:
L = L b o d y + γ ⋅ L e d g e L=L_{body}+\gamma\cdot L_{edge} L=Lbody+γLedge

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/390410.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

GET 和 POST 方法有什么区别?

1.概述 当客户端通过 Web 与服务器通信时&#xff0c;此过程由超文本传输​​协议 ( HTTP) 启用。HTTP 是客户端和服务器之间的请求-响应协议。 GET 和 POST 方法是两种最常见的HTTP 请求方法。它们用于检索数据或将数据发送到服务器。它们是客户端-服务器模型的组成部分&…

云计算基础-存储基础

存储概念 什么是存储&#xff1a; 存储就是根据不同的应用程序环境&#xff0c;通过采取合理、安全、有效的方式将数据保存到某些介质上&#xff0c;并能保证有效的访问&#xff0c;存储的本质是记录信息的载体。 存储的特性&#xff1a; 数据临时或长期驻留的物理介质需要保…

EasyRecovery2024功能强大的电脑数据恢复软件

EasyRecovery是一款功能强大的数据恢复软件&#xff0c;支持从各种存储介质中恢复丢失或删除的文件。以下是EasyRecovery的下载教程、功能介绍以及最新版本简介&#xff1a; EasyRecovery支持多种操作系统版本。对于Windows系统&#xff0c;它支持Windows XP、Windows Vista、W…

linux系统zabbix监控分布式监控的部署

分布式监控 服务器安装分布式监控安装工具安装mysql导入数据结构配置proxy端浏览器配置 zabbix server端监控到大量zabbix agent端&#xff0c;这样会使zabbix server端压力过大&#xff0c;使用zabbix proxy进行分布式监控 服务器安装分布式监控 安装工具 rpm -Uvh https://…

从MobileNetv1到MobileNetv3模型详解

简言 MobileNet系列包括V1、V2和V3&#xff0c;专注于轻量级神经网络。MobileNetV1采用深度可分离卷积&#xff0c;MobileNetV2引入倒残差模块&#xff0c;提高准确性。MobileNetV3引入更多设计元素&#xff0c;如可变形卷积和Squeeze-and-Excitation模块&#xff0c;平衡计算…

CSS的background 背景图片自动适应元素大小,实现img的默认效果 background-size:100% 100%;

CSS的background 背景图片自动适应元素大小,实现img的默认效果 background-size:100% 100%; 关键是background-size:100% 100%; background-size:100% 100%; background-size:100% 100%; background-size:contain; 保持纵横比, 容器部分可能空白background-size:cover; 保…

自动更改由VSCode调试器创建的默认launch.json文件

File -> Preference -> Settings 修改下面的部分

文生视频:Sora模型报告总结

作为世界模拟器的视频生成模型 我们探索视频数据生成模型的大规模训练。具体来说&#xff0c;我们在可变持续时间、分辨率和宽高比的视频和图像上联合训练文本条件扩散模型。我们利用对视频和图像潜在代码的时空补丁进行操作的变压器架构。我们最大的模型 Sora 能够生成一分钟…

AJAX——AJAX入门

1 什么是AJAX&#xff1f; Ajax&#xff08;Asynchronous JavaScript and XML&#xff09;是一种用于在Web应用程序中实现异步通信的技术。 简单点说&#xff0c;就是使用XMLHttpRequest对象与服务器通信。它可以使用JSON、XML、HTML和test文本等格式发送和接收数据。 AJAX最吸…

JavaWeb之Servlet接口

Servlet接口 什么是Servlet&#xff1f; Servlet是一种基于Java技术的Web组件&#xff0c;用于生成动态内容&#xff0c;由容器管理&#xff0c;是平台无关的Java类组成&#xff0c;并且由Java Web服务器加载执行&#xff0c;是Web容器的最基本组成单元 什么是Servlet容器&…

2.13日学习打卡----初学RocketMQ(四)

2.13日学习打卡 目录&#xff1a; 2.13日学习打卡一.RocketMQ之Java ClassDefaultMQProducer类DefaultMQPushConsumer类Message类MessageExt类 二.RocketMQ 消费幂消费过程幂等消费速度慢的处理方式 三.RocketMQ 集群服务集群特点单master模式多master模式多master多Slave模式-…

【研究生复试】计算机软件工程人工智能研究生复试——资料整理(速记版)——数据库

1、JAVA 2、计算机网络 3、计算机体系结构 4、数据库 5、计算机租场原理 6、软件工程 7、大数据 8、英文 自我介绍 4. 数据库 1. B树相对于B树的区别及优势 B树中有重复元素&#xff0c;B树没有重复元素B树种每个节点都存储了key和data&#xff0c;B树内节点去掉了其中指向数…

数学实验第三版(主编:李继成 赵小艳)课后练习答案(十一)(1)(2)(3)

目录 实验十一&#xff1a;非线性方程&#xff08;组&#xff09;求解 练习一 练习二 练习三 实验十一&#xff1a;非线性方程&#xff08;组&#xff09;求解 练习一 1.求莱昂纳多方程 的解 clc;clear; p[1,2,10,-20]; roots(p)ans -1.6844 3.4313i -1.6844 - 3.4313i…

数据结构与算法:二叉树(寻找最近公共祖先、寻找后继节点、序列化和反序列化、折纸问题的板子和相关力扣题目)

最近公共祖先 第一版&#xff08;前提&#xff1a;p和q默认存在于这棵树中&#xff09; 可以层序遍历每个节点时用个HashMap存储该结点和其直接父节点的信息。然后从p开始溯源&#xff0c;将所有的父节点都添加到一个HashSet集合里。然后从q开始溯源&#xff0c;每溯源一步看…

题目:3.神奇的数组(蓝桥OJ 3000)

问题描述&#xff1a; 解题思路&#xff1a; 官方&#xff1a; 我的总结&#xff1a; 利用双指针遍历每个区间并判断是否符合条件&#xff1a;若一个区间符合条件则该区间在其左端点不变的情况下的每一个子区间都符合条件&#xff0c;相反若一个区间内左端点固定情况下有一个以…

ssm的网上招聘系统(有报告)。Javaee项目。ssm项目。

演示视频&#xff1a; ssm的网上招聘系统&#xff08;有报告&#xff09;。Javaee项目。ssm项目。 项目介绍&#xff1a; 采用M&#xff08;model&#xff09;V&#xff08;view&#xff09;C&#xff08;controller&#xff09;三层体系结构&#xff0c;通过Spring SpringMv…

什么是位段?位段的作用是什么?他与结构体有什么关系?

目录 1.什么是位段&#xff1f; 2.位段的内存分配 判断当前机器位段的内存分配形式 1.什么是位段&#xff1f; 位段的声明和结构是类似的&#xff0c;有两个不同&#xff1a; 1.位段的成员必须是 int、unsigned int 或signed int或char 。 2.位段的成员名后边有一个冒号和…

Leetcode3010. 将数组分成最小总代价的子数组 I

Every day a Leetcode 题目来源&#xff1a;3010. 将数组分成最小总代价的子数组 I 题目描述&#xff1a; 给你一个长度为 n 的整数数组 nums 。 一个数组的代价是它的第一个元素。比方说&#xff0c;[1,2,3] 的代价是 1 &#xff0c;[3,4,1] 的代价是 3 。 你需要将 num…

C语言---指针进阶

1.字符指针 int main() {char str1[] "hello world";char str2[] "hello world";const char* str3 "hello world.";const char* str4 "hello world.";if (str3 str4){//常量字符串在内存里面是无法修改的&#xff0c;所以没必要…

“分布式透明化”在杭州银行核心系统上线之思考

导读 随着金融行业数字化转型的需求&#xff0c;银行核心系统的升级改造成为重要议题。杭州银行成功上线以 TiDB 为底层数据库的新一代核心业务系统&#xff0c;该实践采用应用与基础设施解耦、分布式透明化的设计开发理念&#xff0c;推动银行核心系统的整体升级。 本文聚焦…