《缺失MRI模态下的脑肿瘤分割的潜在相关表示学习》| 文献速递-深度学习肿瘤自动分割

Title

题目

Latent Correlation Representation Learning for Brain Tumor Segmentation With Missing MRI Modalities

《缺失MRI模态下的脑肿瘤分割的潜在相关表示学习》

01

文献速递介绍

脑肿瘤是世界上最具侵略性的癌症之一,脑肿瘤的早期诊断在临床评估和治疗规划中起着重要作用。

手稿于2020年4月7日收到,分别于2020年9月2日和2021年2月8日修订,于2021年3月30日接受。出版日期为2021年4月8日;当前版本日期为2021年4月14日。本工作部分得到欧洲联盟的支持,资助来自欧洲区域发展基金(ERDF),项目编号为18P03390/18E01750/18P02733;部分资助来自M2SINUM项目,由上诺曼底地区议会提供;部分资助来自中国国家留学基金委员会(CSC)。负责审核和批准本手稿发表的副编辑是刘佳颖教授。(通讯作者:苏软)

周同学隶属于法国鲁昂INSA的LITIS-Apprentissage,邮编76800,也隶属于鲁昂大学的LITIS-QuantIF,邮编76183,法国(电子邮件:tongxue.zhou@insa-rouen.fr)。

Stéphane Canu就职于法国鲁昂INSA的LITIS实验室,隶属于上诺曼底大学,法国鲁昂,哈佛大学,哈佛大学港口,邮编76183(电子邮件:stephane.canu@insa-rouen.fr)。

皮埃尔·韦拉就职于法国鲁昂的亨利·贝克雷尔癌症中心核医学科,邮编76038,也隶属于鲁昂大学的LITIS QuantIF,邮编76183,法国(电子邮件:pierre.vera@chb.unicancer.fr)。

苏软就职于法国鲁昂大学的LITIS-QuantIF,邮编76183,法国(电子邮件:su.ruan@univ-rouen.fr)。

数字对象标识符为10.1109/TIP.2021.3070752。

脑肿瘤的早期诊断对于临床评估和治疗规划至关重要。核磁共振成像(MRI)是一种广泛使用的成像技术,用于评估脑肿瘤,因为它提供了良好的软组织对比度而无需辐射。常用的序列包括T1加权、增强T1加权(T1c)、T2加权和液体衰减反转恢复(FLAIR)图像。不同的序列可以提供互补信息,用于分析胶质瘤的不同亚区。例如,T2和FLAIR突出了具有肿瘤周围水肿的肿瘤,被称为整个肿瘤。T1和T1c突出了没有肿瘤周围水肿的肿瘤核心,被称为肿瘤核心。在T1c中还可以观察到肿瘤核心的增强区域,具有高信号强度,被称为增强肿瘤核心。在这项工作中,我们将不同序列的这些图像称为模态。因此,应用多模态图像可以减少信息不确定性,并提高临床诊断和分割准确性。图1展示了四种MRI模态和相关的地面真实情况,我们可以看到FLAIR可以提供关于整个肿瘤的重要信息,而T1c可以提供关于肿瘤核心的更多信息(包括增强肿瘤和Net&Ncr区域)。

Abstract

摘要

Magnetic Resonance Imaging (MRI) is a widely used imaging technique to assess brain tumor. Accurately seg*menting brain tumor from MR images is the key to clinicaldiagnostics and treatment planning. In addition, multi-modalMR images can provide complementary information for accuratebrain tumor segmentation. However, it’s common to miss someimaging modalities in clinical practice. In this paper, we present anovel brain tumor segmentation algorithm with missing modalities. Since it exists a strong correlation between multi-modalities,a correlation model is proposed to specially represent the latent**multi-source correlation. Thanks to the obtained correlationrepresentation, the segmentation becomes more robust in thecase of missing modality. First, the individual representation**produced by each encoder is used to estimate the modalityindependent parameter. Then, the correlation model transformsall the individual representations to the latent multi-source cor**relation representations. Finally, the correlation representationsacross modalities are fused via attention mechanism into a sharedrepresentation to emphasize the most important features forsegmentation. We evaluate our model on BraTS 2018 and BraTS2019 dataset, it outperforms the current state-of-the-art methodsand produces robust results when one or more modalities aremissing.

核磁共振成像(MRI)是一种广泛使用的成像技术,用于评估脑肿瘤。准确地从MR图像中分割脑肿瘤是临床诊断和治疗规划的关键。此外,多模态MR图像可以提供互补信息,以实现准确的脑肿瘤分割。然而,在临床实践中通常会缺少一些成像模态。在本文中,我们提出了一种新颖的具有缺失模态的脑肿瘤分割算法。由于多模态之间存在强相关性,因此提出了一个相关模型,专门用于表示潜在的多源相关性。由于获得了相关表示,因此在缺失模态的情况下,分割结果变得更加鲁棒。首先,每个编码器产生的个体表示用于估计模态无关参数。然后,相关模型将所有个体表示转换为潜在的多源相关表示。最后,通过注意机制将跨模态的相关表示融合成共享表示,以强调分割所需的最重要特征。我们在BraTS 2018和BraTS 2019数据集上评估了我们的模型,它优于当前的最先进方法,并且在一个或多个模态缺失时产生稳健的结果。

Method

方法

Our network is based on the U-Net architecture ,in which we integrate our fusion strategy and correlationmodel. To be robust to the absence of modalities, we adaptit to multi-encoder based framework. It first takes 3D available modalities as inputs in each encoder. The independentencoders can not only learn modality-specific feature representation, but also can avoid the false-adaptation betweenmodalities. To take into account the strong correlation betweenmulti modalities, we propose a correlation model, namedCM, to discover the correlation between modalities. Thenthe correlation representations across modalities are fusedvia attention mechanism, named Fusion, to emphasize themost discriminative representation for segmentation. Finally,the fused latent representation is decoded to form the final segmentation result. The network architecture scheme is depictedin Fig.

2.我们的网络基于U-Net架构,在其中我们集成了我们的融合策略和相关模型。为了使网络对模态缺失具有鲁棒性,我们将其调整为基于多编码器的框架。每个编码器首先将3D可用模态作为输入。独立的编码器不仅可以学习特定于模态的特征表示,还可以避免模态之间的误适应。为了考虑多模态之间的强相关性,我们提出了一个称为CM的相关模型来发现模态之间的相关性。然后,通过注意机制将跨模态的相关表示进行融合,称为融合,以强调分割的最具判别性的表示。最后,融合的潜在表示被解码以形成最终的分割结果。网络架构示意图如图2所示。

Conclusion

结论

In this paper, we have presented a novel brain tumor segmentation network to deal with the absence of imaging modalities. To the best of our knowledge, this is the first segmentationmethod which is capable of describing the latent multi-sourcecorrelation representation between modalities and allows tohelp segmentation on missing modalities. Since most currentsegmentation networks are single-encoder based and thus can’ttake advantage of the correlated information available betweendifferent modalities. To this end, we designed a multi-encoderbased segmentation network composed of four parts: encoder,correlation model, fusion block and decoder. The encoders aredesigned to obtain the individual feature representations fromthe input images, to learn the contributions of the obtainedfeature representations for the segmentation, we propose afusion block based on attention mechanism, which allows toselectively emphasize feature representations along channelattention and spatial attention. In addition, the proposedcorrelation model is used to discover the latent correlationsbetween the feature representations of the four modalities,which making the segmentation robust when the modalitiesare gradually missing. We carried out extensive experimentsto evaluate our proposed method. The quantitative andqualitative analysis on BraTS 2018 and BraTS 2019 datasetdemonstrate the effectiveness of our proposed method.To analyze the impact of the proposed components ofour network, several ablation experiments are implementedwith regard to the fusion block, reconstruction decoder, andcorrelation model. The comparison results demonstrate theproposed strategies can aid the network gradually refine thesegmentation results until to achieve the best results. We alsocompared our method with the state-of-the-art approacheson full and missing modalities on BraTS 2018 and BraTS2019 dataset. Although we didn’t surpass the best method onfull modalities, while our results are still competitive for thesegmentation. Since this work is presented to cope with thesegmentation on missing modalities, and both the quantitativeand qualitative results have demonstrated that our method canachieve a better result compared to the state-of-the-art methodwhen the modalities are gradually missing.In the future, we would like to investigate more complexmodel to describe the multi-source correlation representationand adapt it to missing data issue.

在本文中,我们提出了一种新颖的脑肿瘤分割网络,以应对成像模态缺失的情况。据我们所知,这是第一种能够描述模态之间潜在多源相关性表示的分割方法,并允许在缺失模态上帮助分割的方法。由于大多数当前的分割网络都是基于单编码器的,因此无法利用不同模态之间可用的相关信息。为此,我们设计了一个基于多编码器的分割网络,由四个部分组成:编码器、相关模型、融合块和解码器。编码器被设计用于从输入图像中获取个体特征表示,为了学习获得的特征表示对分割的贡献,我们提出了一个基于注意力机制的融合块,它可以通过通道注意力和空间注意力选择性地强调特征表示。此外,提出的相关模型用于发现四种模态的特征表示之间的潜在相关性,从而使得在模态逐渐缺失时分割更加稳健。我们进行了大量实验来评估我们提出的方法。在BraTS 2018和BraTS 2019数据集上的定量和定性分析证明了我们提出的方法的有效性。为了分析我们网络的提出组件的影响,针对融合块、重建解码器和相关模型进行了几种消融实验。比较结果表明,提出的策略可以帮助网络逐渐优化分割结果,直到达到最佳结果。我们还将我们的方法与BraTS 2018和BraTS 2019数据集上完整和缺失模态的最新方法进行了比较。尽管我们没有超越完整模态上的最佳方法,但我们的结果仍然在分割方面具有竞争力。由于本工作旨在应对缺失模态上的分割,并且定量和定性结果都表明,与当模态逐渐缺失时,我们的方法相比,可以达到更好的结果。

在未来,我们希望研究更复杂的模型来描述多源相关性表示,并将其适应于缺失数据问题。

Figure

图片

Fig. 1. Example of data from a training subject. The first four imagesfrom left to right show the MRI modalities: Fluid attenuation inversionrecovery (FLAIR), contrast enhanced T1-weighted (T1c), T1-weighted (T1),T2-weighted (T2) images, and the fifth image is the ground truth labels,Net&Ncr is shown in red, edema in orange and enhancing tumor in white,Net refers non-enhancing tumor and Ncr necrotic tumor.

图1. 训练对象数据示例。从左到右的前四幅图像显示了MRI模态:液体衰减反转恢复(FLAIR)、增强T1加权(T1c)、T1加权(T1)、T2加权(T2)图像,第五幅图像是地面真实标签,Net&Ncr以红色显示,水肿以橙色显示,增强肿瘤以白色显示,Net代表非增强肿瘤,Ncr代表坏死性肿瘤。

图片

Fig. 2. A schematic overview of our network. Each input modality is encodedby individual encoder to obtain the individual representation. The proposedcorrelation model (CM) and fusion block (Fusion) project the individualrepresentations into a fused representation, which is finally decoded to formthe reconstruction modalities and the segmentation result. Full details of eachcomponent are given in the main text.

图2. 我们网络的示意概览。每个输入模态都由独立的编码器编码,以获得个体表示。提出的相关模型(CM)和融合模块(Fusion)将个体表示投影到一个融合表示中,最终解码以形成重建模态和分割结果。每个组件的详细信息在正文中给出。

图片

Fig. 3. Joint intensity distribution of MR images: (a) FLAIR-T1, (b) FLAIR T2 and (c) T1-T2.

图3. MR图像的联合强度分布:(a) FLAIR-T1,(b) FLAIR-T2,(c) T1-T2。

图片

Fig. 4. Architecture of correlation model. MPE Module first maps the indi vidual representation fi(Xi|θi) to a set of independent parameters  i , underthese parameters, LCE Module transforms all the individual representationsto form a latent multi-source correlation representation Fi(Xi|θi).

Fig. 4. 相关模型的架构。MPE模块首先将个体表示 fi(Xi|θi) 映射到一组独立参数 θi ,在这些参数下,LCE模块将所有个体表示转换为形成潜在的多源相关表示 Fi(Xi|θi)。

图片

Fig. 5. The architecture of fusion block. The correlation representations(F1, F2, F3, F4) are first concatenated as the input of the attentionmechanism F. Then, they are recalibrated along channel attention and spatialattention modules to achieve the F**c and Fs. Finally, they are added to obtainthe fused representation Ff .

Fig. 5. 融合模块的架构。首先将相关表示(F1,F2,F3,F4)连接作为注意机制 F 的输入。然后,它们通过通道注意力和空间注意力模块进行重新校准,以获得 Fc 和 Fs。最后,它们相加以获得融合表示 F**f。

图片

Fig. 6. Proposed segmentation network framework. Each imaging modality (FLAIR, T1, T1c, T2) is first encoded by individual encoder to obtain themodality-specific representation ( f1, f2, f3, f4). Then these individual representations are transformed by CM to form the dependent representation (F1, F2,F*3, F4), which are integrated by the following fusion block. Finally, the fused latent representation F**f is decoded to form the final segmentation. Here onlyfour encoders and the target segmentation decoder are shown.

g. 6. 提出的分割网络框架。每个成像模态(FLAIR、T1、T1c、T2)首先由独立编码器编码,以获得模态特定表示(f1、f2、f3、f4)。然后,这些个体表示通过CM进行转换,形成依赖表示(F1、F2、F3、F4),然后通过下面的融合块进行整合。最后,融合的潜在表示 Ff 被解码以形成最终的分割。这里仅显示了四个编码器和目标分割解码器。

图片

Fig. 7. Examples of the segmentation results on full modalities on BraTS 2018 dataset. (1) denotes the baseline, (2) denotes the baseline with fusion block,(3) denotes our method without CM. Red: necrotic and non-enhancing tumor core; Orange: edema; White: enhancing tumor.

图7。在BraTS 2018数据集上展示完整模态的分割结果示例。(1) 表示基线,(2) 表示具有融合块的基线,(3) 表示我们的方法没有使用CM。红色:坏死和非增强肿瘤核心;橙色:水肿;白色:增强肿瘤。

图片

Fig. 8. Examples of the segmentation results on full modalities on BraTS 2019 dataset. (1) denotes the baseline, (2) denotes the baseline with fusion block,(3) denotes our method without CM. Red: necrotic and non-enhancing tumor core; Orange: edema; White: enhancing tumor.

图8。在BraTS 2019数据集上展示完整模态的分割结果示例。(1) 表示基线,(2) 表示具有融合块的基线,(3) 表示我们的方法没有使用CM。红色:坏死和非增强肿瘤核心;橙色:水肿;白色:增强肿瘤。

图片

Fig. 9. Examples of the segmentation results on missing modalities. Red: necrotic and non-enhancing tumor core; Orange: edema; White: enhancing tumor.

图9。缺失模态的分割结果示例。红色:坏死和非增强肿瘤核心;橙色:水肿;白色:增强肿瘤。

图片

Fig. 10. Visualization of feature maps of the attention based fusionblock. Red: necrotic and non-enhancing tumor core; Yellow: edema; Green:enhancing tumor.

图10。基于注意力的融合块特征图的可视化。红色:坏死和非增强肿瘤核心;黄色:水肿;绿色:增强肿瘤。

Table

图片

TABLE I  ievaluation of our proposed method on brats 2018 training set, ↑ denotes the improvement compared to the previous method, bold results show the best scores for each tumor region

表 I 我们提出的方法在 BRATS 2018 训练集上的评估,↑ 表示与之前方法相比的改进,粗体结果显示每个肿瘤区域的最佳得分

图片

TABLE II evaluation of our proposed method on brats 2019 training set, ↑ denotes the improvement compared to the previous method, bold results show the best scores for each tumor region

表 II 我们提出的方法在 BRATS 2019 训练集上的评估,↑ 表示与之前方法相比的改进,粗体结果显示每个肿瘤区域的最佳得分

图片

TABLE III comparison of different methods on brats 2018 validation set, fields with (−) are not mentioned in the published work, bold results show the best scores for each tumor region, and underline results refer the second best results

表 III 不同方法在 BRATS 2018 验证集上的比较,带有 (−) 的字段在已发表的工作中未提及,粗体结果显示每个肿瘤区域的最佳得分,而下划线结果指的是第二好的结果

图片

TABLE IV  comparison of different methods on brats 2019 validation set, fields with (−) are not mentioned in the published work, bold results show the best scores for each tumor region, and underline results refer the second best results

表 IV 不同方法在 BRATS 2019 验证集上的比较,带有 (−) 的字段在已发表的工作中未提及,粗体结果显示每个肿瘤区域的最佳得分,而下划线结果指的是第二好的结果

图片

TABLE Vrobust comparison of different methods (dice %) for different combinations of available modalities on brats 2018 dataset,◦ denotes the missing modality and • denotes the present modality, ↑ denotes the improvement of cm, wocm denotes our method without cm, our denotes our method with cm, bold results denotes the best score

表V 对BRATS 2018数据集上不同可用模态的不同组合进行了不同方法(Dice %)的稳健比较,◦表示缺失的模态,•表示存在的模态,↑表示CM的改进,WOCM表示我们的方法没有CM,OUR表示我们的方法使用了CM,粗体结果表示最佳得分。

图片

TABLE VI   robust comparison of different methods (dice %) for different combinations of available modalities on brats 2019 dataset, ◦denotes the missing modality and • denotes the present modality, ↑ denotes the improvement of cm, wocm denotes our method without cm, our denotes our method with cm, bold results denotes the best score

表VI 在BRATS 2019数据集上,对不同可用模态的不同组合进行了不同方法(Dice %)的稳健比较,◦表示缺失的模态,•表示存在的模态,↑表示CM的改进,WOCM表示我们的方法没有CM,OUR表示我们的方法使用了CM,粗体结果表示最佳得分。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/678505.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【Javascript系统学习】

语法与数据类型 语法 var\let\const 用 var 或 let 语句声明的变量,如果没有赋初始值,则其值为 undefined。如果访问一个未声明的变量会导致抛出 ReferenceError 异常: undefined 值在布尔类型环境中会被当作 false数值类型环境中 undefin…

APP分发移动应用分发未来:内容驱动

APP分发移动应用分发未来:内容驱动 一、引言 随着移动互联网技术的不断进步和用户需求的日益多样化,移动应用分发行业正面临着前所未有的机遇与挑战。在这个过程中,内容驱动成为了一个重要的趋势,它不仅可以提升用户体验&#x…

香橙派OrangePi AIpro上手笔记——之USB摄像头目标检测方案测试(三)

整期笔记索引 香橙派OrangePi AIpro上手笔记——之USB摄像头目标检测方案测试(一) 香橙派OrangePi AIpro上手笔记——之USB摄像头目标检测方案测试(二) 香橙派OrangePi AIpro上手笔记——之USB摄像头目标检测方案测试(…

前端之HTML语言之基础标签(持续更新)(基础部分更新结束)

前端之HTML语言 学习完后端的各种层之后,今天开始学习前端,前端和后端都是一个项目的组成部分。 前端对应得到语言是HTML,HTML最重要的有三块,行为,样式,J结构。行为就是交互,理解为鼠标的点击…

Python数据分析案例45——基于融合模型(Stack)的电商用户购买行为预测

案例背景 最近618快到了,上电商购买的人很多,正好我手上还有这个用户购买行为的数据,就做了一个机器学习模型流程,然后也使用的都是常见的机器学习模型,但是加了一点创新吧,使用了stacking融合模型。简单来…

【python】成功解决“NameError: name ‘X’ is not defined”错误的全面指南

成功解决“NameError: name ‘X’ is not defined”错误的全面指南 一、引言 在Python编程中,NameError: name X is not defined是一个常见的错误。这个错误通常意味着我们试图使用一个未定义的变量名X。本文将详细解析这一错误的原因,并提供一系列实用…

正版软件 | Fences 最新版本 V5 - 组织工作流程的最佳方式

『Fences 简介』 Stardock Fences 是一款由 Stardock 公司开发的桌面组织工具,旨在帮助用户管理桌面上的图标和文件。以下是对 Stardock Fences 软件的概述: Stardock Fences 概述 开发商: Stardock 功能: 桌面图标管理: Fences 允许用户将桌面上的…

【Python机器学习】无监督学习——不同类型的预处理

之前学习过,一些算法(比如神经网络和SVM)对数据缩放非常敏感。因此,通常的做法是对特征进行调节,使数据更适合于这些算法。通常来说,这是对数据的一种简单的按照特征的缩放和移动。举例: impor…

MPLAB--读写MCU数据

空工程 Read –Programmer\Read –File\Export, –确定后选择文件位置 & 文件名 Program –File\Import…,选择烧录的文件*.hex –Programmer\Program

在Vue3中使用WebHQChart实现K线图的沙盘推演

本文由ScriptEcho平台提供技术支持 项目地址:传送门 Vue.js K线沙盘推演代码 应用场景介绍 本代码演示了一个使用 Vue.js 框架开发的 K 线沙盘推演工具,它允许用户加载历史 K 线数据并对其进行编辑和修改,从而模拟和分析不同的市场走势。…

[原型资源分享]经典产品饿了么UI模版部件库

​部件库预览链接:https://f13gm0.axshare.com 支持版本: Axrure RP 8 文件大小: 3MB 文档内容介绍 基本部件:表单样式:12款、数据样式:10款、服务样式:6款、导航:5款、业务组件:7款、 模板…

关于无法通过脚本启动Kafka集群的解决办法

启动Kafka集群时,需要在每台个节点上启动启动服务,比较麻烦,通过写了以下脚本来进行启停;发现能正常使用停止功能,不能正常启动Kafka; Kafka启停脚本: ## 以防不能通过shell脚本启动Kafka服务…

SSM李宁线上商城系统小程序-计算机毕业设计源码48327

目 录 摘要 1 绪论 1.1课题研究背景 1.2研究现状 1.3系统开发技术的特色 1.4 ssm框架介绍 1.5论文结构与章节安排 2 李宁线上商城系统小程序系统分析 2.1 可行性分析 2.2 系统流程分析 2.2.1数据流程 2.2.2业务流程 2.3 系统功能分析 2.3.1 功能性分析 2.3.2 非…

CTFHUB-技能树-web-信息泄露

1.目录遍历 这个没什么好讲的,进去直接点击找flag,然后在下面目录翻,就找到了 ctfhub{ad8099fcb6e04071264ccb5c} 2.PHPINFO 访问 点击查看 3.备份文件下载 3.1 网站源码 访问 使用御剑扫描 然后下载查看 点击文本查看其他两个文件,也没发现…

从C到C++,C++入门篇(1)

1.什么是C C是一种通用编程语言,由Bjarne Stroustrup在1980年代初开发,作为C语言的扩展。 C支持多种编程范式,包括过程式编程、数据抽象、面向对象编程和泛型编程等。 这种语言在操作系统、游戏开发、图形界面、嵌入式系统、分布式系统、网…

RIP v2路由安全认证综合实验

RIP v2路由安全认证综合实验 实验拓扑: 实验要求:通过认证防范攻击者获得通信设备的相关信息。 实验步骤: 1.完成基本配置 sys Enter system view, return user view with CtrlZ. [Huawei]sys AR1 [AR1]undo in e Info: Information center…

【时间复杂度】定义与计算方法

文章目录 1.什么是时间复杂度?2.时间复杂度类别2.1 常量阶 O(1)2.2 对数阶 O(log n)2.3 线性阶 O(n)2.4 线性对数阶 O(n log n)2.5 平方阶 O(n^2^) 1.什么是时间复杂度? 时间复杂度是计算机科学中用来描述算法执行时间效率的一个概念。它表示了算法执行时…

借助调试工具理解BLE协议_3.Windows BLE调试工具

1.调试工具下载 Windows BLE调试工具是一款运行在Windows下的BLE调试软件,实现了扫描、连接、获取BLE设备上的服务以及向服务写入和读取数据的功能。图1是Windows BLE调试工具主界面。资源地址: https://download.csdn.net/download/mecompu/86508009?…

CogVLM2多模态开源大模型部署与使用

CogVLM2多模态开源大模型部署与使用 项目简介 CogVLM2 是由清华大学团队发布的新一代开源模型系列。2024年5月24日,发布了Int4版本模型,只需16GB显存即可进行推理。2024年5月20日,发布了基于llama3-8b的CogVLM2,性能与GPT-4V相当…