中科院田捷教授:重新审视医学影像AI,哪些算法和研究最具生命力?万字长文人工智能AI医学影像预测患者图像

近日,第四届图像计算与数字医学国际研讨会(ISICDM2020),在辽宁省沈阳市的东北大学国际学术交流中心举办。

在开幕式环节中,中科院自动化研究所田捷教授以《医学影像中的人工智能的算法和研究热点》为题做了大会报告。

田捷教授现任中国科学院自动化所研究员、分子影像重点实验室主任、北航-首医大数据精准医疗高精尖创新中心主任。

自2010年起,田捷教授连续获得计算机视觉与医学影像分析领域的9大Fellow,其中包括AAAS、IEEE、IAMBE、SPIE、AIMBE、IAPR、OSA、ISMRM、WMIS。同时也是两项国家重点基础研究发展计划(973计划)首席科学家。

他主要从事医学影像分析与生物特征识别的研究和应用的工作,还长期从事光学分子影像研究,在光学分子成像等领域做出了系统性、创新性贡献,特别是生物自发光和激发荧光断层成像及其应用方面。

以下是田捷演讲全文,雷锋网《医健AI掘金志》做了不改变原意的编辑:

田捷:今天和大家汇报的题目是《医学影像中的人工智能的算法和研究热点》,分为以下几个方面:包括自己团队对医学影像人工智能的工作进展,以及回归临床的人工智能到底给患者和临床带来什么收益。

随着方法不断更新,人工智能在医学影像中的应用也越来越深入,越来越多临床问题被更好的解决,使得患者能最终获益。

另一方面,医生和机器学习的关系,引用斯坦福大学SanjivSamGambhir教授在WMIC2018给出的例子,从医生角度来看,人工智能是计算机做人类认为智能的事,其从大到小包括机器学习、神经网络、深度学习。同时深度学习更适合解决像超声这样人工难以定义特征的影像,下面的表述也是验证他这样的观点。

AI的另一重要概念即大数据,一个病人影像的每个断层是512×512的像素,200个断层即可组成5000多万个体素,形成1000~10万个影像特征,医生看片不可能看到1000~10万个特征。

但计算机可以通过高通量处理对信息进行降维,使得诊断更准确,从而辅助医生进行决策。

CT、磁共振把信号变成图像,让人眼来判读,来提取特征,人脑来加工,最终形成诊断知识,这恰好是现在影像组学和人工智能,医学影像的研究热点。我将对这些热点,进行逐个分析。

首先从信号到图像,过去都是医学影像器械厂商完成,例如从K-空间,磁共振图像生成,有一系列物理模型和数学模型,像莱登投影,螺旋采样等这一系列方法。

但现在人工智能也在干这事,使得从复杂频率信号到实域变换,生成人眼能看的磁共振图像,经过训练以后,从图像中获取知识给出判断,但这种重建方法受到了降采样噪声干扰,使得很多图像失真。

而人工智能不需要物理模型和数学公式,可以直接从信号到图像,既克服失真,又可高质量重建。此外AI重建出来的结果,颠覆了过去由物理模型和数学算法降采样得到图像的方式,其信噪比更高,图像质量更好。

我们团队也开展了类似工作,通过训练样本得到光源位置,不需要经过辐射传播方程来近似求解,以深度学习进行重建,其中没有复杂物理过程和简化数学模型,这个工作我们也发表在了Optica上。该工作以深度学习进行重建,与前面磁共振逻辑思路类似,按照这个思路我们做了一个系列,包括自发荧光,激发荧光,光声成像。

从信号到图像完全可以用深度学习,噪声更低,效果更好,颠覆了复杂物理过程和数学模型,使得重建更加有效。

回归到今天的主要内容:图像到知识。

重点从4个方面进行汇报:基于人工智能的影像组学方法;基于深度学习的影像智能诊断;特异性新型卷积神经网络模型;医疗人工智能的前沿热点方向。

医生看病是从影像提取特征,人眼看结构特征,根据经验进行人脑加工,最后给出决策。计算机通过影像数据,定量提取高通量特征,人工智能建模来辅助决策。

其中最大区别是人眼看的是结构,计算机看到的是高维信息。

高维信息能够提取微观基因蛋白信息在宏观影像上的表达,从而反映人体组织细胞和基因水平变化,使得诊断更准确,治疗更有效,这是影像组学意义所在。

影像组学也可以跟其他组学融合,通过人工智能高通量的提取特征信息,再进行建模,实现精准诊断、预后预测以及治疗方案选择。

围绕着这几个方面举典型案例,说明人工智能到底解决了什么问题,患者的获益在哪里。

人工智能对医学来说到底效果是什么?

对临床来说,影像是无创的,病理是有创的,通过手术和穿刺才能得到。病理是微观,影像是宏观,如果借助人工智能从宏观影像上挖掘出微观信息,把影像逼近病理,使两个技术1+1>2,诊断将更准确。

另一方面,把宏观影像跟外部预后结合在一起,定量分析影像数据和临床数据,也能够辅助疾病个性化诊疗和精准预测。

其中最重要的就是特征,人眼只能看到形状特征。一些高维特征、标准方差、能量、复杂灰度、共生矩阵特征和熵,人眼都没办法看,也没办法加工,但计算机可以处理这些高维信息。

放射科大夫写报告都会描述形状不规则,边缘较模糊,长径多少,只能让临床外科和内科大夫去做判断。

但这两个人的预后差别很大,一个5年半没有复发,一个一年半就去世了。

这就是肿瘤异质性,从结构上看不到这两个患者的预后和肿瘤异质性(肿瘤本质的差别)。

我觉得医工交叉要解决问题,研究思路应该是源于临床提出问题,要具体化,越具体越好。特别是现在临床解决不了的某一个点上的某一个具体问题,找适合的人工智能的数据处理方法和分析方法,最后回归临床应用。

下面我会举一些例子,说明了人工智能的效果。不同应用目的的工作为例子,以印证上面研究思路,案例均摘自Ebiomedicine(柳叶刀子刊)。

案例一:新辅助治疗效果评估

这是与南方医院合作的科研案例,针对特定临床问题:局部晚期宫颈癌治疗前难以预测新辅助治疗疗效。采用了275例新辅助化疗前宫颈癌多中心多序列MR影像。

用人工智能多序列、多区域MR影像组学特征分析,实现局部晚期宫颈癌患者的新辅助疗效精准预测。从过去不能从磁共振图看出问题,到借助人工智能加磁共振的分析达到精准预测。

这个成果发表在医学杂志Ebiomedicine上,国际同行法国教授DimitrisVisvikis认为该研究表明在多中心验证影像组学模型是可行的,该工作将促进影像组学的临床应用转化。

案例二:孕妇产后出血预测

这是与河南省人民医院合作的案例:通过分析近300例胎盘增生孕妇产前MR影像、MR影像组学特征,对多中心T2WI序列进行智能分析实现孕妇剖腹产发生出血的精准预测。

案例三:肝硬化门脉高压预测

前面是影像逼近病理,这是对肝静脉压梯度测量的预测,通过回顾性CT图像数据进行学习预测,提取了特征再进行前瞻性AI预测,效果也不错。

案例四:远处转移风险评估

鼻咽癌远处转移风险评估案例中,我们使用176例鼻咽癌患者MR影像进行数据定量分析,实现治疗前对鼻咽癌患者远处转移风险的精准预测。

案例五:脑膜瘤脑组织侵袭风险评估

第五个案例是脑膜瘤脑组织侵袭风险的预测。脑膜瘤患者会有术前评估不准确性,我们取1728例术前脑膜瘤患者多序列MR影像,分析定量影像组学特征与脑组织侵袭潜在关联,实现了脑膜瘤患者脑组织侵袭风险精准预测。

这些案例都是以问题为导向,说明人工智能解决临床的特定问题,但问题一定是源于临床,找到一个特定问题,高于临床找到适合的方法,回归临床看效果。

对于AI找肺结节类问题在临床上并不一定有实际意义,也许方法很炫,在特定数据集上也很有效,但距离实际的临床问题和患者都太远。

影像组学还存在采用人工定义特征灵活性较低的问题,通过端到端的深度神经网络在数据中自动提取特征,能够减少对人的依赖,但这样的方法的可解释性给我们带来了挑战。

深度学习可以减少对人的依赖,无需人工定义特征,但需要的数据量也就提高了,超声就是很好的案例。

超声图像数据量大,类型多,没有冠状面和矢状面,一般每个医生之间无法达成共识,与医生的操作手法有很大关系,恰恰适合深度学习。

超声图像大概有两类:静态和动态。静态分为B超图像、弹性成像;动态分为B超视频、造影视频。

针对动态视频追踪,建立级联单样本可变形卷积神经网络模型,对超声视频中肝癌实现高精度实时自动追踪。

案例1:超声影像组学-预测肝癌TACE治疗预后

肝癌患者TACE预后差异大,术前缺乏有效预测手段的问题。

我们和中山大学一附院合作,针对139例肝癌患者术前超声造影动态视频建立了3DCNN网络,进行视频数据特征自动学习,精准预测肝癌TACE治疗预后情况,精度可以达到0.93。

左边是超声造影图像,深度学习可以将超声动态视频转化为更直观的分类视频,红色代表预后贡献值,红色越多代表预后效果好,蓝色代表预后效果不好,上面这个人预后效果更好,即使不是医生也可以看懂。深度学习把数据变成知识,缩短了医生的学习曲线。

案例2:卷积神经网络预后模型-肝癌治疗方案的选择-个性化诊疗

早期肝癌(5公分以下)选择肝切还是消融这个问题,我们以两百多例消融和肝切患者术前超声造影视频及预后随访数据为基础,得到17%消融患者和25%肝切患者诊疗方式应该互换,预后效果会更好,这就是个性化诊疗。

过去个性化诊疗凭大夫经验,根据化验结果和医学经验判断该肝切还是消融,但每个人经验是有限的。

使用卷积神经网络挖掘多相位超声视频特征,学习动脉期、门脉期、静脉期超声视频图像,然后集合Cox比例风险损失函数,就可以实现个性化诊疗,端到端进行预后预测。

通过AI计算,37位消融患者如果接受肝切治疗,两年PFS概率增加12%,56位肝切患者接受消融治疗,2年后PFS概率增加15%。

通过大数据和回顾性数据,可以对预后效果进行前瞻性预测,借助人工智能实现治疗方案的选择和推荐。

案例3:迁移学习—肺癌EGFR基因突变预测

影像不仅能逼近病理,还能做基因预测。原来判断肺癌有没有EGFR基因突变,需要进行穿刺。但穿刺风险很大,可能会激活肿瘤加快扩散,甚至穿刺可能带动肿瘤转移。

由于肿瘤异质性影响,一针不一定穿到肿瘤核心位置或想穿的地方。如果拍个CT就可以知道基因类型,可以解决规避很多风险,其中人工智能就可以发挥作用。

我们用迁移深度学习方法,对800余例肺腺癌患者多中心CT影像,进行基因突变预测。对EGFR突变给出预测,将其展现成可理解的知识。前面例子红色代表贡献值,是深度学习给出的肿瘤中EGFR基因突变高可疑区域。

对着高亮区域穿刺,效果会更好,也克服了前面的假阳性或假阳性结果,当然我们更重要进行无创的预测。

该成果发表在临床类顶刊-欧洲呼吸上,第一作者是一个工科学生,这个方法解决问题的效果好,实现了从影像+人工智能的基因预测。

通过半监督深度学习挖掘缺乏随访CT影像的数据,从大量无随访CT影像中学习肿瘤关键特征,少量随访数据和大量无随访CT影像得到复发风险预测精度为C-Index=0.713;预测三年复发率AUC=0.772。

案例5:多模态特征融合—胃癌腹膜转移预测

第五个案例是胃癌隐性腹膜转移,这类疾病术前无法进行影像判断,给外科大夫带来很大困难。

外科大夫只有通过手术看到后才发现胃癌腹膜转移,按照NCCN指南开刀手术已经没有价值。

这个工作当年就写入中国临床肿瘤学会CSCO胃癌诊疗指南,让更多病人避免白挨一刀,也让更多医生不用开一个没有价值的刀。

案例6:全自动深度学习模型—新冠肺炎诊断

今年新冠疫情的影响下,我们对新冠肺炎的诊断进行研究,针对新冠肺炎与其他肺炎的鉴别,我们构建端到端深度学习进行自动检测。

由于主要是鉴别新冠,研究采用了6家医院1266例肺炎患者的CT影像(924例新冠,324例其他肺炎),还有另外两家医院做独立外部验证集,AUC达到0.87和0.88。

我们还提出中心池化卷积神经网络分层量化肿瘤空间信息概念,与传统池化、均匀量化相比,通过非均匀中心池化窗约束对瘤内、瘤周、瘤外区域分别使用不同大小的池化窗,实现基于空间信息的特征筛选,得到更多特征信息。

第一,病理-影像大数据融合影像组学研究

前面是以影像为主进行挖掘,病理图像也是图像,也很适合人工智能,如果把影像挖掘跟病理挖掘合二为一,效果肯定会1+1>2。

案例:影像病理组学辅助直肠癌疗效预测

这是第一个课题,从影像组学得到的结果,把影像组学+病理图像结合,准确率提高15%以上,说明利用多组学分析能解决更多问题。

第二,构建医学影像大数据

医工交叉和人工智能医学领域应用基础就是数据库,这是中国的一个优势,美国TCGA数据库做了很多年才达到1万例。中国数据比较多,我们团队已经积累了10万多例肿瘤数据。

第三,研发医学影像智能分析辅助诊断软件

另外一个重要元素就是算法,把算法软件集成在一起,形成算法库,供医生使用(开源),目前国内外已经有13万人次下载。

我觉得未来AI还将进化到4.0时代,从数据直接获得知识。从数据到图像就是为了供人观看,但生成图像,会有很多噪声,丢掉很多信息。

未来如果人工智能从数据到知识,对于整个医学影像和放射科都将是一种颠覆,目前国内外都在研究。

最后总结一下,今天强调的是问题导向:源于临床,找到特定问题;高于临床,找到适合的人工智能方法;回归临床,让人工智能解决问题,让患者获益。

这个工作必须医工交叉,互补合作。很高兴这几年影像和超声医生,一直在尝试,发表了一系列学术顶刊,这些工作将使医疗人工智能持续发展的生命力。

THE END
1.深度学习十大算法:探索人工智能的未来之路深度学习十大算法:探索人工智能的未来之路 随着人工智能的迅猛发展,深度学习成为了解决复杂问题和实现人工智能的关键技术之一。深度学习算法通过模拟人脑神经网络的工作方式,实现了对大规模数据的高效处理和分析。本文将介绍深度学习领域中的十大算法,探索人工智能的未来之路。1. 卷积神经网络(CNN)卷积神经网络是深度https://baijiahao.baidu.com/s?id=1779415672138255134&wfr=spider&for=pc
2.目前最新的神经网络模型有哪些新型神经网络模型目前最新的神经网络模型有哪些 新型神经网络模型 图神经网络模型 摘要 引言 图神经网络模型 符号 模型 状态值的计算 学习算法 变换和输出函数实现 Linear GNN Nonlinear GNN 实验结果 The Mutagenesis Problem 计算复杂性 The Graph Neural Network Model 摘要https://blog.51cto.com/u_16213663/9339450
3.新型人工智能算法可像人一样学习无需大量素材练手的“深度学习” 新型人工智能算法可像人一样学习 据美国麻省理工学院“技术评论”官网报道,一个国际科研团队从人类大脑的学习方式中获得灵感,研发了更加高效、具有复杂学习能力的人工智能软件。最新研究发表在近日出版的《科学》杂志上。 这种新的人工智能软件只需看一个例子就可以像人一样精确识别出https://www.cas.cn/kj/201512/t20151215_4494047.shtml?ivk_sa=1023197a
4.若干新型智能优化算法对比分析研究近几年比较新的优化算法若干新型智能优化算法对比分析研究 智能优化算法(IOA)指的是一类以自然界的生物生存进化过程或物理现象为算法原理,用于解决最优化问题的算法,较为知名的智能优化算法有遗传算法、粒子群算法、模拟退火算法等。智能优化算法属于启发式方法,广泛应用在解决最优化问题上,传统的群智能算法为解决一些实际问题提供了新思路。随着https://blog.csdn.net/weixin_57147647/article/details/128320650
5.上海第一家数学新型研发机构,“新”在哪?“我们不仅是上海第一家数学新型研发机构,也是全国第一家以数学命名的新型研发机构。”上海张江数学研究院(以下简称研究院)院长尹俊平,在接受解放日报·上观新闻记者独家专访时,快人快语。 国内与数学有关的新型研发机构已有数家,多以人工智能或算法来命名,上海张江数学研究院不仅名称里有数学,其目标也是主要以数学来https://stcsm.sh.gov.cn/xwzx/mtjj/20240202/b4a18f00809547b6ba84813e69ad229d.html
6.新型MPPT算法在光伏并网系统中的应用AET为了尽可能地提高光伏发电系统的转换效率,越来越多的研究集中到最大功率跟踪(MPPT)算法上。本文在分析传统MPPT算法缺点及产生功率误判断原因的基础上,提出了一种新型的MPPT算法,并将它应用在光伏并网系统中,以提高并网的功率因数和效率。 1 MPPT算法 目前应用较多的MPPT算法有扰动观察法(P&O)和电导增量法(INC)等。http://www.chinaaet.com/article/209725
7.“潮涌浦江”投资上海全球分享季之投资政策50问来了浦江头条Q11:上海在加快新型基础设施建设方面有哪些支持政策? A11:2020年4月,我市出台《上海市推进新型基础设施建设行动方案(2020-2022年)》,明确了新基建建设方向、重点任务,并提出强化统筹协调、加强市区协同、创新支持方式、加强指标保障、推动资源开放、优化规划布局、完善规则标准、培育市场需求等保障措施,形成了上海版“新https://www.thepaper.cn/newsDetail_forward_19028189
8.基于IEC闪变仪的一种新型短时间闪变值算法.pdf基于IEC闪变仪的一种新型短时间闪变值算法.pdf 5页VIP内容提供方:134***8238 大小:4.8 MB 字数:约2.02万字 发布时间:2022-05-30发布于江苏 浏览人气:152 下载次数:仅上传者可见 收藏次数:0 需要金币:*** 金币 (10金币=人民币1元)基于https://max.book118.com/html/2022/0527/6132005014004152.shtm
9.“聚焦南科大之前沿科技”系列报道(6)——新型高效智能算法:推动智能算法决定了任何一个智能系统的基本运行模式,是人工智能的核心要素之一。因此,结合日新月异的硬件平台,面向生产生活中不断膨胀的智能化需求,研究新型高效的智能算法,是人工智能领域永恒的主题,同时对于研发具有类人工智能的机器、实现更好的人机协同将起到不可或缺的作用。https://newshub.sustech.edu.cn/html/202105/5469.html
10.开箱即用的java新型雪花算法(SnowFlake):雪花算法是一个分布式雪花算法是一个分布式主键id生成的解决方案,他解决了分布式id生成的痛点问题,本算法基于推特雪花算法,进行深度优化。 算法基于SnowFlake IdGenerator核心代码开发,引入springboot自动配置,从而做到开箱即用的效果。该算法在缩短ID长度的同时,具备极高瞬时并发处理能力(50W/0.1s),且支持时间回拨。 https://portrait.gitee.com/lmlx66/yitter-idgenerator-spring-boot-starter
11.顶级GPU被质疑太贵了,新型CPU算法快了15倍赖斯大学的计算机科学家创造了一种替代GPU的方法,该算法使用通用中央处理器(CPU),并指出其训练深度神经网络(DNN) 的速度超过图形处理器平台(GPU)速度的15倍。到底是怎么回事呢,我们一起来看看: 赖斯布朗工程学院的计算机科学助理教授安舒玛利·史里瓦斯塔瓦(Anshumali Shrivastava)认为人工智能的瓶颈取决于如何训练AI的https://36kr.com/p/1182855518650627
12.IBM:用于蛋白质折叠的新型量子算法腾讯云开发者社区IBM : 用于蛋白质折叠的新型量子算法 编译| WJM 蛋白质如何折叠?使用 Qiskit(IBM的开源量子软件开发工具包)的研究人员在帮助解决生物学中的这个重要谜团方面迈出了重要的一步。此过程中,研究人员展示了量子计算解决自然科学领域问题的巨大潜力。 至少从 1960 年后期开始,蛋白质就一直困扰着科学家。由氨基酸组成的长链https://cloud.tencent.com/developer/article/1891937
13.壹生资讯科研背后丨徐兵河教授团队探索分子肿瘤负荷新算法在肿瘤疗效评价中的价值 科研背后 2021年7月7日,英国《自然》杂志旗下《信号转导与靶向治疗》杂志在线发表了中国医学科学院肿瘤医院易宗毕、马飞、荣国华、刘斌亮、王文娜、管秀雯、莫红楠、王佳妮、钱海利、徐兵河、北京吉因加基因研究院管彦芳、北京市朝阳区桓兴肿瘤https://www.cmtopdr.com/post/detail/60111142-9d22-44f9-82b5-7d6317be2436
14.孟勤国谈算法歧视侵害消费者权益——是大数据和算法技术运用引发算法歧视侵害消费者权益是大数据和算法技术运用引发的新型侵权,是否侵权应当坚持消费者权益保护的价值取向,围绕侵权法上的构成要件加以讨论和判断。算法歧视侵害消费者权益属于结果性侵权行为。消费者按照歧视算法消费即受侵害,行为和结果的因果联系不证自明,需要清晰和统一的是行为、后果、过错三要件。行为应是显性或隐性https://m.yunnan.cn/system/2023/06/07/032618660.shtml
15.量子计算对比特币的影响有哪些?到底是恐慌还是机遇?尽管量子计算带来了风险,它也可能提升比特币的安全性和效率。新型抗量子加密算法可以开发更强的抗量子加密算法,如基于格理论的加密算法,替代现有的ECDSA。量子计算可优化复杂的计算任务(如优化网络或交易确认),提高整个系统的效率。 4、时间线与现实考量: https://www.veryok.net/dianzi/266736.html
16.全面了解6G太赫兹传播信道测量仪此外,窄带和平面波假设不再有效,这使得难以将参数解耦以将问题分解为多个一维估计问题。因此,低复杂度的新型HRPE算法是必不可少的。一种有前途的解决方法是利用跨UM-MIMO阵列的MPC的延迟轨迹来实现快速初始化和有效的干扰消除,从而可以在信道参数估计中显著减少搜索空间。https://m.elecfans.com/article/1898700.html
17.如何评价哪吒汽车?为了在原理上解决轴电压的产生,哪吒汽车提出了国内领先的轴电压抑制算法,在传统的SVPWM控制算法的基础上进行算法优化,有效抑制变频产生的共模电压,轴电压降低约66%;轴承&轴齿件电腐蚀风险大幅降低,轴承&轴齿件运行寿命更长久;轴电压的降低还有利于EMC性能的提升,EMC等级达到Class5。新型算法还对变频控制中的谐波有明显https://www.yoojia.com/ask/17-11903164380964978288.html
18.2023年重大网络安全政策法规盘点为深入贯彻党的二十大精神,落实《国务院办公厅关于深化电子电器行业管理制度改革的意见》有关要求,为电信设备生产企业产品上市创造便利条件,工业和信息化部近日发布《工业和信息化部关于启用和推广新型进网许可标志的通告》,决定启用和推广新型进网许可标志,逐步替代原纸质标志。 https://www.eet-china.com/mp/a273064.html