贾广

个人信息:Personal Information

教授

性别:男

学历:博士研究生毕业

学位:博士学位

在职信息:在岗

所在单位:计算机科学与技术学院

学科:计算机应用技术

扫描关注

研究领域

当前位置: 中文主页 >> 科学研究 >> 研究领域

基于人工智能的医疗影像三维分割(AIMIS-3D)软件

摘要:用于三维打印和三维可视化的图像分割已成为医学研究、教学和临床实践中的重要组成部分。放射肿瘤学医师根据基于CT和MRI图像中分割出的肿瘤三维模型进行治疗规划。放射科医生和神经外科医生根据MRI和血管壁成像的三维血管分割来检测动脉粥样硬化斑块。心脏外科医生根据CT和MRI图像中心脏结构的3D打印计划瓣膜置换手术。泌尿科医生通过从MRI和CT图像显示肿瘤和盆腔器官的三维视图与患者进行沟通。骨折和骨肉瘤的诊断和治疗规划很大程度上依赖于CT图像中的三维骨和肿瘤分割。医学图像分割需要复杂的计算机量化和可视化工具。近年来,随着人工智能技术的发展,肿瘤或器官可以从医学图像中快速、准确地检测和自动轮廓。本文介绍了一个独立于平台的通用图像分割和三维可视化程序,该程序是为满足医学研究和临床实践社区的需要而专门设计的。该应用程序名为aimis-3d(用于3D打印和裸眼3D可视化的基于人工智能的医学图像分割),可以对从医学图像分割的3D对象进行临床和定量分析。AIMIS-3D软件也可以嵌入到裸眼三维可视化系统中,系统还支持多用户的手势识别和语音控制。这种一体机可以增强医生之间以及医生和患者之间的沟通交流。

1引言

我们开发了一个医学图像分割和可视化程序,用于3D打印和裸眼3D可视化,以便应用于手术计划和临床患者护理。AIMIS-3D是用于3D打印和裸眼3D可视化的基于人工智能(AI)的医学成像分割的首字母缩写,具有N维、平台独立性,并且可以处理从大多数医学成像模态获得的图像。该程序同时作为应用程序编程接口(API)和最终用户应用程序发挥作用。作为API,具有IDL编程技能和医学成像分割知识的工程师和研究人员可以使用AIMIS-3D通过AIMIS-3D的插件功能构建定制的可视化组件。 作为最终用户应用程序,它提供了许多基本和复杂的图像分割和3D可视化工具。

随着人工智能(AI)技术的发展,如何应用人工智能技术检测疾病已引起越来越多的关注[1-3]。斯坦福大学使用人工智能来诊断皮肤癌,其准确率为91%[4]。谷歌公司开发了一种增强现实显微镜(ARM),可以帮助检测癌症。由于癌症疾病的复杂性和多样性,使用人工智能还有很长的路要走[5]。我们通过将AI技术集成到用于自动器官分割的医学图像分析中来开发AIMIS-3D。例如,前列腺[6],膀胱[7],脊柱[8],眼球[9]可以通过使用卷积神经网络(CNN)算法自动进行轮廓分割[10]。每个2D横截面图像的自动描绘的器官边界可以组合为3D对象,用于AIMIS-3D软件中的3D可视化和3D打印。

1. AIMIS-3D设计的功能概述

与裸眼3D可视化集成的AIMIS-3D软件可以提高临床医生之间的沟通效率,临床医生可以使用我们的交互式裸眼3D可视化系统来讨论患者的疾病并优化治疗计划。医生可以坐在可视化系统周围,从不同的视角观察患者的内部3D器官,而不用佩戴任何虚拟现实(VR)眼镜[11]。每位医生可以旋转,平移或放大/缩小3D对象,并使用手势识别或语音控制进行注释或标记[12]。

AIMIS-3D软件结合裸眼3D可视化系统可能有助于改善患者与医生之间的关系[13]。 在中国,由于缺乏有效的沟通,患者和医生之间发生了巨大的冲突。 由于专业医学和解剖学术语,患者可能难以阅读诊断或成像报告。 我们的裸眼3D可视化系统将有助于医生向患者解释疾病细节的能力

2总体设计

AIMIS-3D采用IDL编程语言编写,采用模块化设计,充分利用了IDL面向对象的功能和即用型图像处理功能。AIMIS-3D及其核心功能的功能概述如图1所示。底部块列出了当前支持的二维横截面图像格式的子集。利用DICOM文件头中存储的信息,将医学图像读取到三维各向同性数据缓冲区(如256×256×256或512×512×512),并对其进行处理以生成三维多边形对象。3D对象可以有不同的类型,例如IDLgrPoly-gon对象,矩阵大小为256×256×256或512×512×512的3D掩码、STL文件、SAV文件或WRL文件。两个功能块与三维对象和三维各向同性数据缓冲区交互:可视化和算法。“可视化”界面为用户提供了一个图形用户界面,用于查看和修改三维对象,导出STL文件进行三维打印,并生成四个视角进行肉眼三维可视化。“算法”模块包含基于人工智能的三维图像分割、三维对象分割和修改以及血管厚度测量工具。这些工具的功能分布在直观的用户界面上。

                       

2. AIMIS-3D软件包括两个窗口,加载窗口和修改窗口。 “修改”窗口具有三个正交视图和四个角度视图,用于裸眼3D可视化。

 

AIMIS-3D软件主要由两个窗口组成:加载窗口和修改窗口(图2)。 “加载”窗口允许用户使用DICOM爬虫预处理DICOM图像,加载DICOM图像以自动分割3D对象,以及打开stl文件以进行3D可视化。 通过进入“修改”窗口,可以选择和修改一个或多个3D对象。 用户可以对选定的3D对象进行各种操作,并使用裸眼3D可视化通过使用裸眼3D投影硬件从四个视点(前,后,左和右)查看整个过程。

AIMIS-3D专为临床医生,患者和3D打印社区设计,具有以下突出特点:具有多语言界面的国际版本,访问患者图像数据库或CD,基于AI的器官和肿瘤分割,手动分割 3D对象,基于连接的3D对象分割,基于蒙版的3D对象修改,血管厚度测量,输出到stl文件以进行3D打印,四个交互式视角用于裸眼3D可视化系统。

2.1具有多语言界面的国际版本

3。最上面的按钮是aimis-3d软件中的国际语言选择按钮。使用我们的AIMIS-3D软件时,国际用户可以自由选择自己的语言。

AIMIS-3D软件是为国际临床医生和研究人员设计的,包括不同的语言,如中文,英文,德文,日文,韩文,阿拉伯文等。语言选择按钮位于按钮列表的顶部 在主程序界面(加载窗口)上。 每个语言选项图标都是国旗(左侧)和相应的语言翻译(右侧)的组合,便于直观选择(图3)。

2.2患者图像数据库或CD

AIMIS-3D软件打开DICOM图像系列并保存到MySQL数据库中。 MySQL安装程序服务器和连接器可以作为先决条件安装,然后可以修改ODBC数据源管理员以连接AIMIS-3D软件。该数据库包括每位患者的信息,例如患者的姓名,患者的年龄,成像方式,系列日期,系列时间,医院或机构以及转诊医师的姓名。当第一次读取图像时,患者的信息可以自动自动添加到数据库中。下次用户打开数据库并选择案例时,图像将直接加载到AIMIS-3D软件中。如果无法成功安装MySQL服务器,用户可以选择直接从目录中选择DICOM图像,然后将目录中的所有图像加载到AIMIS-3D程序进行3D分割。 DICOM爬虫可用于根据系列名称对图像进行排序,以便可以正确加载图像以进行分割。

如果选择了CD或USB驱动程序目录,则将使用DICOM搜寻器对磁盘中的所有DICOM图像进行排序,并临时存储在文件夹中以进行分段和3D可视化。关闭AIMIS-3D软件时,将自动删除临时文件夹。

 

2.3 3D对象修改

我们的AIMIS-3D软件提供了调整单个3D对象的颜色,平滑度,透明度,绘制样式(点/线/填充),隐藏或显示状态的选项。修改3D对象有五种方法:基于AI的分割,基于阈值的分割,基于掩模的分割,基于轮廓的分割和基于连接的分割。

AIMIS-3D软件中基于AI的分割使用深度卷积神经网络(DCNN)自动提取器官边界和肿瘤边界[14]。 DCNN是一种新兴的CAD分析形式,它允许自动提取特征和监控大量数据,形成定量决策[15]。越来越多的证据表明,深度学习分析可能是模式识别和成像分类问题的传统手工方法的潜在替代方案。然而,研究的重点是结合DCNN和多参数MRI来解决病变检测和分类问题。 Le等[16]使用T2WI,表观扩散系数(ADC)及其组合作为输入来探索三种传统的DCNN模型(VGGNet,GoogleNet和ResNet)[17]。增强方法用于增加训练数据集中的样本数量。 Liu等[18]提出了受VGGNet启发的XmasNet。在反向传播期间,在卷积之后添加批量归一化以加速收敛。在这些研究中,从图像中提取贴片(方形区域)作为DCNN模型的输入,以帮助DCNN关注感兴趣区域(ROI),多参数MR图像的数量,并增加样本中的样本数量。数据集。

基于阈值的分割使用不同的最小和最大阈值来生成新的3D对象。基于掩模的分割允许用户通过使用诸如圆形画笔之类的工具在正交图像上手动绘制不同形状和尺寸的掩模,以添加或删除3D对象的一部分。基于轮廓的分割允许用户在当前绘制窗口上绘制轮廓,其可以用于将单个3D对象分割成两个3D对象,即一个在轮廓内,另一个在轮廓外。基于连接的分割允许用户在3D对象的表面上拾取点,并且所选择的3D区域将增长以生成新的3D对象,扩展初始点以包括所有连接的相邻体素。

在修改窗口中,可以生成和操纵总共30个3D对象。用户可以使用“重做”和“撤消”按钮来取消或重复先前的修改。程序中总共存储了100个修改步骤作为备份。用户可以将当前工作状态保存为.sav文件,下次可以打开该文件。所有保存的参数都将恢复,用户可以继续处理三维对象。三维对象可以导出到.stl文件中进行三维打印。

2.4裸眼三维可视化

我们的AIMIS-3D软件可以嵌入到裸眼3D可视化系统中。四个观看角度(前、后、左、右)的图像拼接后,投射到屏幕上。全息图像覆盖在金字塔形状的全息玻璃框架,可以将每个视角的图像反射到周围观众的眼睛 对于混合现实技术Ho-loLens深度相机可以捕捉和识别手势,可以用于结合语音控制来控制显示的3D对象。 可以通过语音控制和手势识别来旋转,平移,缩放,测量和标记3D对象。 裸眼3D可视化支持多个用户共享和同时操作3D对象。 安装在手机或iPad中的用户客户端系统允许用户通过迷你全息投影系统查看3D对象(图4)

                       

4.AIMIS-3D软件集成到肉眼三维全息投影系统(左、中)中,并通过iPad集成到微型全息投影用户客户端系统(右)中。

3 AIMIS-3D的临床应用

3.1盆腔器官分割和多参数MRI图像的三维可视化

近年来的一个热门话题是使用循环神经网络来分割器官并检测癌症[19-22]。 李等人使用YOLOV3算法定位颈动脉,并在MRI图像形成的三维模型上检测病变。 我们的软件具有内置的YOLOV3算法,可用于通过适当的训练识别T2W序列中特定的器官。

以前列腺为例,人工智能在前列腺癌中的检测已经取得了进展。2002年,研究人员前瞻性地开发了一种人工神经网络(ANN),通过早期检测男性前列腺特异性抗原(PSA)水平来检测前列腺癌[23,24]。Lemaitre等人开发了一个基于随机森林的计算机辅助诊断系统,以提供前列腺癌定位的概率图[25]。在过去的两年中,为多参数MRI开发了几种基于卷积神经网络的计算机辅助癌症诊断系统[26–28]。

我们的AIMIS-3D软件运行U-net算法,根据T2加权MRI图像和功能图像(扩散和灌注MRI图像)检测前列腺癌和膀胱癌掩模[29]。掩模被转换为3D对象,然后以stl文件格式导出以进行3D打印。这些器官(前列腺,膀胱,精囊,子宫,直肠,神经血管束)和肿瘤组织的三维可视化被用于促进医生之间以及医生和患者之间的交流(图6)。例如,3D可视化用于帮助泌尿科医生向患者解释疾病和手术计划。

                       

5。基于Yolov3算法的前列腺检测。

 

3.2骨骼和脊柱分割和CT图像的3D打印

AIMIS-3D软件中分析来自GE LightSpeed RT16的AAPM CT性能Phantom(Nuclear Associates 76-410-4130和76-411)的CT图像(图7)。模体中的标尺用于校准距离和角度测量。距离测量误差在±1 mm范围内,角度测量误差在1°以内。

例如脊柱侧凸或骨折患者的CT图像被读入AIMIS-3D软件。自动选择最小CT值阈值以从软组织和背景中分离骨骼。阈值可以根据患者的年龄和CT扫描参数而变化。分割的骨骼结构被分成最多五个最大的断开的3D对象,这些被分离的对象不同的颜色标记。可以使用AIMIS-3D软件选择和修改一个或多个3D对象。可以使用手动调整CT数的最大和最小阈值来生成新的3D对象。通过手动调整和重新植入骨头的方法实现模拟修复骨折。

采用AIMIS-3D软件中的分离功能7个颈椎骨分离,测量椎弓根和椎板的厚度,帮助螺钉置入时选择合适的钉道

                       

6.在AIMIS-3D软件中,采用U-NET算法自动检测器官和肿瘤边界,实现三维可视化。

 

                       

7。在AIMIS-3D软件中,利用AAPM CT性能体模(顶行)的CT图像对距离测量进行了标定。在aimis-3d软件中,根据CT图像的连通性,将CT图像分割成5个不同颜色的独立部分。

 

3.3骨肉瘤显示及CT图像的三维打印

骨肉瘤是骨肿瘤中恶性度最高、骨科恶性度最高的肿瘤。骨肉瘤的发病率为1-3%。90%的骨肉瘤发生在青少年。男性最常见的发病部位是长轴干骺端,主要在膝关节周围。大部分肿瘤位于股骨远端和胫骨近端。

将骨肉瘤的CT图像加载到AIMIS-3D软件中,将腰椎、骨肉瘤、血管和局部神经作为三维物体进行分离和可视化。腰椎的3D打印可以清楚地显示肿瘤组织浸润和溶解骨皮质(图8)。

                       

8。采用aimis-3d软件和3d打印辅助腰椎骨肉瘤切除术。

3.4乳腺癌可视化和治疗反应评估灌注CT图像

在乳腺癌的放射治疗中,难以确保患者的治疗位置在每次治疗期间是相同和适当的。我们进行了一项研究,以确定三维打印塑料乳罩是否可以提高乳腺癌临床放射治疗的准确性。

将放射治疗期间乳腺癌的灌注CT图像加载到AIMIS-3D软件中,并使用2室药代动力学模型进行分析。乳腺癌的药代动力学参数图可以3D模式显示,用于治疗反应评估[30]。可以评估肿瘤体积和药代动力学参数的变化[31]。

在放射治疗中,精确照射肿瘤靶位至关重要。然而,在每次治疗过程中,患者的体位可能会改变,乳房可能会转移到不同的位置。利用AIMIS-3D软件对CT图像进行了定量评价,利用塑料胸罩的三维打印技术来限制胸部运动,最大限度地减小胸部位置的变化。

将患有乳腺癌的患者的CT图像读入AIMIS-3D软件并转换为3D对象。 AIMIS-3D软件可以通过自动识别患者的CT扫描框架和3D打印塑料乳房胸罩的位置来定量评估每次放射治疗期间的乳房位移,这两者都相对于照射的目标位置是固定的(图9)。

 

                       

9。利用AIMIS-3D软件对肿瘤组织进行描述,并对治疗反应进行监测。定量评价两种放射治疗之间的相对乳腺位置变化。

 

3.5脑血管3D打印,以及time-of-flight MRI图像的裸眼3D可视化

心血管疾病一直是许多国家患者面临的严重问题,是导致患者死亡和发病的主要原因。越来越多的证据表明,血管脆弱性取决于血管壁成分和管腔狭窄程度[36]。

血管在TOF序列的MRI上显示出明亮的信号,并通过在AIMIS-3D软件中自动选择阈值进行分割。该软件的主要优点是它利用形态学信息,例如局部壁厚度和主动脉的活动轮廓来消除MRI图像中的噪声和伪影的影响。血管用红色和黄色标记,作为动脉粥样硬化斑块的警告标志(图10)。

                       

10。aimis-3d软件可以分割脑血管并导出STL文件,以便用尼龙材料(左)进行3d打印。计算血管厚度并用彩虹色条(中间)显示。前视、后视、左视、右视四个视图组合在一起,实现了裸眼三维可视化(右)。

 

血管壁磁共振成像技术是检测动脉粥样硬化疾病[32]和评估基于壁增强的动脉粥样硬化斑块易损性的热门话题[33,34]。高分辨率MRI在鉴别动脉粥样硬化斑块的成分,如纤维帽(FC)、斑块内出血、钙化和富含脂质的坏死核心(LR-NC)以及量化斑块面积和体积方面表现出更好的潜力。此外,具有3D-TOF协议的高分辨率MRI能够将完整厚实的纤维帽与薄且容易破裂纤维帽区分。TOF磁共振成像的分段血管引导下,可以去除对比后黑血磁共振成像中的血流空洞伪影,更好地显示动脉粥样硬化斑块。通过使用带有放射科医生标签的颅内斑块病例来训练斑块检测和斑块易损性的人工智能算法[35]。

 

4结论和未来方向

 

本软件在构建一个基于独立于平台,用于三维、自动分割、可扩展图像处理应用方面取得了显著进展。然而,在满足临床实践和三维可视化环境的更广泛需求方面,仍有许多工作要做。目前,我们正在为AIMIS-3D添加各种裸眼3D可视化硬件以及手势和语音控制。未来的增强还将包括基于人工智能的疾病描述,更准确的AI算法,用于准确的器官和肿瘤分割,以及对专业组件的持续修改,以满足我们的合作者确定的特定要求,如基于超声心脏瓣膜分割和灌注CT的唐都医院乳腺肿瘤分割,以及陕西省人民医院动脉粥样硬化斑块分析。虽然AIMIS-3D主要解决了用于3D打印和裸眼3D可视化的放射成像模式,但它适用于其他类型的数据集和应用,如微射线、显微镜图像、显微照片、虚拟现实、混合现实、教学、建筑和工业设计。未来的增强将根据需要为这些技术增加相应功能。

 

参考文献

[1] Hamet P, Tremblay J. Artificial intelligence in medicine[J]. Metabolism: clinical and experimental, 2017, 69S:S36-S40. DOI: 10.1016/j.metabol.2017.01.011.

[2] Ramesh A N, Kambhampati C, Monson J R T, et al. Artificial intelligence in medicine[J]. Annals of the Royal College of Surgeons of England, 2004, 86(5):334–338. DOI: 10.1308/147870804290.

[3] SZOLOVITS P. Artificial Intelligence in Medical Diagnosis[J]. Annals of Internal Medicine, 1988, 108(1):80. DOI: 10.7326/0003-4819-108-1-80.

[4] Esteva A, Kuprel B, Novoa R A, et al. Dermatologist-level classification of skin cancer with deep neural networks[J]. Nature, 2017, 542(7639):115–118. DOI: 10.1038/nature21056.

[5] Wu Y, Giger M L, Doi K, et al. Artificial neural networks in mammography: Application to decision making in the diagnosis of breast cancer[J]. Radiology, 1993, 187(1):81–87. DOI: 10.1148/radiology.187.1.8451441.

[6] Zhu Q, Du B, Turkbey B, et al. Deeply-supervised CNN for prostate segmentation[C]. International Joint Conference on Neural Networks; IJCNN. IJCNN 2017: The International Joint Conference on Neural Networks. Piscataway, NJ: IEEE, 2017: 178–184.

[7] Cha K H, Hadjiiski L, Samala R K, et al. Urinary bladder segmentation in CT urography using deep-learning convolutional neural network and level sets[J]. Medical physics, 2016, 43(4):1882. DOI: 10.1118/1.4944498.

[8] Liao H, Mesfin A, Luo J. Joint Vertebrae Identification and Localization in Spinal CT Images by Combining Short- and Long-Range Contextual Information[J]. IEEE transactions on medical imaging, 2018, 37(5):1266–1275. DOI: 10.1109/TMI.2018.2798293.

[9] Balya D, Roska T. Face and Eye Detection by CNN Algorithms[J]. The Journal of VLSI Signal Processing, 1999, 23(2/3):497–511. DOI: 10.1023/A:1008121908145.

[10] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6):84–90. DOI: 10.1145/3065386.

[11] Kim Y, Kim H, Kim Y O. Virtual Reality and Augmented Reality in Plastic Surgery: A Review[J]. Archives of plastic surgery, 2017, 44(3):179–187. DOI: 10.5999/aps.2017.44.3.179.

[12] Cheok M J, Omar Z, Jaward M H. A review of hand gesture and sign language recognition techniques[J]. International Journal of Machine Learning and Cybernetics, 2019, 10(1):131–153. DOI: 10.1007/s13042-017-0705-5.

[13] Wolf S M. Conflict between Doctor and Patient[J]. Law, Medicine and Health Care, 2016, 16(3-4):197–203. DOI: 10.1111/j.1748-720X.1988.tb01946.x.

[14] Hu P, Wu F, Peng J, et al. Automatic abdominal multi-organ segmentation using deep convolutional neural network and time-implicit level sets[J]. International journal of computer assisted radiology and surgery, 2017, 12(3):399–411. DOI: 10.1007/s11548-016-1501-5.

[15] Suzuki S, Zhang X, Homma N, et al. Mass detection using deep convolutional neural network for mammographic computer-aided diagnosis[C]. 2016 55th Annual Conference of the Society of Instrument and Control Engineers of Japan (SICE): 20-23 Sept. 2016. [Piscataway, New Jersey]: IEEE, 2016?: 1382–1386.

[16] Le M H, Chen J, Wang L, et al. Automated diagnosis of prostate cancer in multi-parametric MRI based on multimodal convolutional neural networks[J]. Physics in medicine and biology, 2017, 62(16):6497–6514. DOI: 10.1088/1361-6560/aa7731.

[17] Moosavi-Dezfooli S-M, Fawzi A, Fawzi O, et al. Universal Adversarial Perturbations[C]. Proceedings, 30th IEEE Conference on Computer Vision and Pattern Recognition: 21-26 July 2016, Honolulu, Hawaii. Los Alamitos, California: IEEE Computer Society, Conference Publishing Services, 2017: 86–94.

[18] Liu S, Zheng H, Feng Y, et al. Prostate cancer diagnosis using deep learning with 3D multiparametric MRI[C]. Armato, S G; Petrick, N A. SPIE, 2017: 1013428.

[19] Shell J, Gregory W D. Efficient Cancer Detection Using Multiple Neural Networks[J]. IEEE journal of translational engineering in health and medicine, 2017, 5:2800607. DOI: 10.1109/JTEHM.2017.2757471.

[20] Mehdy M M, Ng P Y, Shair E F, et al. Artificial Neural Networks in Image Processing for Early Detection of Breast Cancer[J]. Computational and mathematical methods in medicine, 2017, 2017:2610628. DOI: 10.1155/2017/2610628.

[21] Men K, Dai J, Li Y. Automatic segmentation of the clinical target volume and organs at risk in the planning CT for rectal cancer using deep dilated convolutional neural networks[J]. Medical physics, 2017, 44(12):6377–6389. DOI: 10.1002/mp.12602.

[22] Zhu J, Zhang J, Qiu B, et al. Comparison of the automatic segmentation of multiple organs at risk in CT images of lung cancer between deep convolutional neural network-based and atlas-based techniques[J]. Acta oncologica (Stockholm, Sweden), 2019, 58(2):257–264. DOI: 10.1080/0284186X.2018.1529421.

[23] Djavan B, Remzi M, Zlotta A, et al. Novel artificial neural network for early detection of prostate cancer[J]. Journal of clinical oncology: official journal of the American Society of Clinical Oncology, 2002, 20(4):921–929. DOI: 10.1200/JCO.2002.20.4.921.

[24] Abraham P, Wilfred G. A massive increase in serum β-glucuronidase after a single dose of carbon tetrachloride to the rat[J]. Clinica Chimica Acta, 2002, 322(1-2):183–184. DOI: 10.1016/S0009-8981(02)00170-5.

[25] Lemaitre G, Marti R, Rastgoo M, et al. Computer-aided detection for prostate cancer detection based on multi-parametric magnetic resonance imaging[J]. Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Annual Conference, 2017, 2017:3138–3141. DOI: 10.1109/EMBC.2017.8037522.

[26] Wang Z, Liu C, Cheng D, et al. Automated Detection of Clinically Significant Prostate Cancer in mp-MRI Images Based on an End-to-End Deep Neural Network[J]. IEEE transactions on medical imaging, 2018, 37(5):1127–1139. DOI: 10.1109/TMI.2017.2789181.

[27] Song Y, Zhang Y-D, Yan X, et al. Computer-aided diagnosis of prostate cancer using a deep convolutional neural network from multiparametric MRI[J]. Journal of magnetic resonance imaging: JMRI, 2018, 48(6):1570–1577. DOI: 10.1002/jmri.26047.

[28] Yang X, Liu C, Wang Z, et al. Co-trained convolutional neural networks for automated detection of prostate cancer in multi-parametric MRI[J]. Medical image analysis, 2017, 42:212–227. DOI: 10.1016/j.media.2017.08.006.

[29] Dolz J, Xu X, Rony J, et al. Multiregion segmentation of bladder cancer structures in MRI with progressive dilated convolutional networks[J]. Medical physics, 2018, 45(12):5482–5493. DOI: 10.1002/mp.13240.

[30] Hoffmann U, Brix G, Knopp M V, et al. Pharmacokinetic Mapping of the Breast: A New Method for Dynamic MR Mammography[J]. Magnetic Resonance in Medicine, 1995, 33(4):506–514. DOI: 10.1002/mrm.1910330408.

[31] Yu H J, Chen J-H, Mehta R S, et al. MRI measurements of tumor size and pharmacokinetic parameters as early predictors of response in breast cancer patients undergoing neoadjuvant anthracycline chemotherapy[J]. Journal of magnetic resonance imaging: JMRI, 2007, 26(3):615–623. DOI: 10.1002/jmri.21060.

[32] Mossa-Basha M, Shibata D K, Hallam D K, et al. Added Value of Vessel Wall Magnetic Resonance Imaging for Differentiation of Nonocclusive Intracranial Vasculopathies[J]. Stroke, 2017, 48(11):3026–3033. DOI: 10.1161/STROKEAHA.117.018227.

[33] Botnar R M, Stuber M, Kissinger K V, et al. Noninvasive Coronary Vessel Wall and Plaque Imaging With Magnetic Resonance Imaging[J]. Circulation, 2000, 102(21):2582–2587. DOI: 10.1161/01.CIR.102.21.2582.

[34] Aoki S, Shirouzu I, Sasaki Y, et al. Enhancement of the intracranial arterial wall at MR imaging: Relationship to cerebral atherosclerosis[J]. Radiology, 1995, 194(2):477–481. DOI: 10.1148/radiology.194.2.7824729.

[35] Kerwin W, Xu D, Liu F, et al. Magnetic resonance imaging of carotid atherosclerosis: Plaque analysis[J]. Topics in magnetic resonance imaging : TMRI, 2007, 18(5):371–378. DOI: 10.1097/rmr.0b013e3181598d9d.

[36] Madjid M, Naghavi M, Litovsky S, et al. Influenza and cardiovascular disease: A new opportunity for prevention and the need for further studies[J]. Circulation, 2003, 108(22):2730–2736. DOI: 10.1161/01.CIR.0000102380.47012.92.

 

 


Baidu
map