快速磁共振成像与增强研究助力高端医疗设备国产化|上海市科学技术奖上海市医疗设备磁共振成像科学技术奖算法

2023年度上海市科学技术一等奖获奖项目优秀创新成果来啦!本栏目以“强国复兴有我”为主题,重点围绕项目要解决的问题、取得的重要创新、实际应用效果等方面,向社会公众作科普宣传。

本期“档案”大揭秘

项目名称:快速磁共振成像与增强关键技术

完成单位:华东师范大学

完成人:张桂戌等

奖励等级:自然科学一等奖

华东师范大学计算机科学与技术学院的张桂戌教授带领研究团队,基于磁共振成像原理与临床需求,瞄准影像混叠问题和低分辨、伪影问题,充分利用人工智能和大数据等前沿技术,探索并建立了一套快速磁共振成像与增强算法。

这项研究在理论和技术上突破了香农-奈奎斯特采样定理的限制。经过多年的努力,实现了在保证图像质量的前提下将采样率降低60%的目标。这一成果不仅支持了国家高端医疗设备国产化的战略方针,也为提升国民健康水平和推动健康民生工作贡献了力量。

项目团队成员在进行学术讨论

01深度学习模型实现低采样率下

高质量磁共振影像重建

在医学成像领域,如何在降低采样率的同时重建出高质量的全采样磁共振图像,是研究难点。近年来,深度学习技术在磁共振影像重建和医学图像增强方面取得了显著进展。由于磁共振信号以K空间编码的形式存在,这一特性使得设计有效的重建模型尤为关键。

针对这些挑战,团队负责人张桂戌教授带领的研究团队提出了一种结合变分法和深度学习的新型串联重建模型,并配合两步频域修正方法,有效解决了低采样率下的重建难题。

“我们通过设计稠密网络模块并引入膨胀卷积技术,既扩大了模型的感受野,又显著减少了计算开销。”张教授指出。“同时,通过设计两步频域修正方法,我们补正了未采样相位的频域信息,使得重建结果更加自然,细节更加丰富。”这一创新方法不仅提升了图像重建质量,还显著降低了计算成本。实验结果显示,该方法在仅30%采样率下,成功重建出与75%采样率相当的图像质量,达到了降低60%采样率的目标。这一成果为磁共振影像重建带来了全新的技术思路,提升了临床影像学的成像效率。

双域两步信息修正磁共振重建方法示意图

02创新去模糊与超分辨技术

提升磁共振重建质量

针对这一挑战,研究团队创新性地提出了一种基于局部最大梯度的模糊核估计模型。“观察发现,在图像模糊过程中,局部块的梯度最大值会减小。因此我们可以通过最大化局部梯度来约束重建图像,从而实现更精确的去模糊效果。”团队成员方发明教授介绍道。实验结果表明,这一方法显著提高了模糊核估计的准确性,极大改善了去模糊效果。

低质量影像去模糊与超分辨率增强方法示意图

助力磁共振成像重建

由于演化算法是一类基于群体的搜索算法,在执行过程中会对搜索空间进行大量采样,从而积累历史数据。张桂戌团队提出了一个巧妙的思路:以历史数据为基础,建立一个包含在线问题知识提取、知识引导搜索机制等的计算资源自适应分配的多目标优化解决方案。这一重要技术为磁共振重建的准确性提供了坚实的理论支持。

团队成员在磁共振设备上进行算法调试

04落地应用与未来工作展望

“尽管已经取得了不错的成绩,但是我们依然还有很长的路要走。”团队负责人张桂戌表示,“随着技术的不断进步,我们需要持续优化成像系统与加速算法,以适应更复杂的临床需求。”

“我们的目标不仅是满足国家对高端医疗设备国产化的战略需求,更重要的是通过不断的创新,推动医疗技术的发展与应用。”张桂戌补充道。

未来,团队将继续致力于研发更先进的磁共振成像技术,力争在全国范围内推广应用,进一步降低医疗成本,提高诊断准确性,为提升国民健康水平贡献更大力量。

THE END
1.社区Edge AI是边缘计算的研究方向之一,它将人工智能算法和模型推送到边缘设备,使其具备处理复杂数据的能力。随着硬件的不断进步,越来越多的智能设备能够在本地进行推理和决策,而无需将数据发送到云端。Intel和NVIDIA等公司也在加速边缘计算硬件的研发,提升计算能力以应对复杂的AI任务。 https://open.alipay.com/portal/forum/post/192201027
2.向量模型降维—套娃(Mytroyoshka)表征学习此外,MRL 展现了其在跨多种模态的大规模数据集上的无缝扩展能力,包括视觉(如 ViT、ResNet)、视觉+语言(如 ALIGN)以及语言(如 BERT)。这表明 MRL 不仅适用于单一类型的模型,而且可以在不同领域和不同类型的数据上发挥作用。 MRL原理: MRL通过显式优化O(log(d))个较低维度向量的方式,在同一个高维向量内学习https://www.ctyun.cn/developer/article/623686582206533
3.行业大模型数据隐私算力瓶颈:技术应用的挑战与机遇然而,通用大模型在广泛应用的同时也暴露出一些局限性。由于其训练数据和设计目标更倾向于通用性,在解决特定行业场景中的问题时,可能存在效果不足或成本过高的情况。基于此,各行业开始探索定制化的大模型——即“行业大模型”,通过优化模型架构和训练数据,使其在特定应用场景中实现更高效、更精准的表现。例如,金融领域https://www.thepaper.cn/newsDetail_forward_29663563
4.科学网—人工智能赋能科学与工程前沿——知识与数据融合之径从哈密顿量(量子力学和牛顿力学都适用)“根知识”出发在特征工程、激活函数、网络结构等方面进行人工智能算法设计,难度有点大。但它却符合人工智能数据、任务、架构的算法逻辑,可解释性和泛化能力不是问题。 2022跳入“智能计算材料”这个领域,从哈密顿量“根知识”出发在特征工程、激活函数、网络结构等方面进行人工智https://blog.sciencenet.cn/home.php?mod=space&uid=32670&do=blog&id=1465224
5.从K近邻算法距离度量谈到KD树SIFT+BBF算法用官方的话来说,所谓K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居),这K个实例的多数属于某个类,就把该输入实例分类到这个类中。根据这个说法,咱们来看下引自维基百科上的一幅图: https://blog.csdn.net/sjyttkl/article/details/52080358
6.KNN分类算法(精雅篇)KNN算法同样存在VSM的不足, 主要表现为: (1) 对于高维文本向量样本规模较大时, 算法的时间和空间复杂度较高, 其时间复杂度为O (n*m) , n为VSM空间特征维数, m为样本集大小。 (2) 传统KNN算法的计算过程为:当新待分类样本到来时, 每次都要计算其与所有训练样本的距离 (或相似度) , 这就大大降低了算https://www.360wenmi.com/f/cnkey5561set.html
7.学习K近邻算法基础:KD树的操作腾讯云开发者社区k-d树算法可以分为两大部分,一部分是有关k-d树本身这种数据结构建立的算法,另一部分是在建立的k-d树上如何进行最邻近查找的算法。 一、Kd-树的构建 Kd-树是一个二叉树,每个节点表示的是一个空间范围。下表表示的是Kd-树中每个节点中主要包含的数据结构。 https://cloud.tencent.com/developer/article/1101877
8.机器学习篇—大厂笔试题(三)A、KNN算法中K值对分类效果影响较为显著,一般K值较大时,对噪声比较敏感。 B、朴素贝叶斯算法对缺失数据特别敏感,事先需要知道先验概率。 C、SVM算法可以解决高维问题。提高泛化性能。 D、集成学习算法存在过拟合、鲁棒性不强等问题。 KNN:如果当K的取值过小时,一旦有噪声得成分存在们将会对预测产生比较大影响。如果https://developer.aliyun.com/article/951236
9.考试12. 在机器学习中,监督学习需要标注数据进行训练。 A、正确B、错误 13. K-means算法属于有监督学习算法。 A、正确B、错误 14. 在自然语言处理(NLP)中,词向量可以表示词语的语义。 A、正确B、错误 15. 在机器学习中,过拟合是指模型在训练数据上表现良好,但在新数据上表现不佳。 A、正确B、错误 https://www.wjx.cn/xz/274346310.aspx
10.(更新版)大数据应用技能竞赛考试题库大全A、MLE可能并不存在B、MLE总是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的答案:AC49.下列属于数值优化算法的是()。A、梯度下降法B、牛顿法C、极大似然法D、逻辑回归答案:AB50.下列关于探索型数据分析常用图表的说法,正确的有:A、绝大部分情况下使用饼图代替条形图能https://www.renrendoc.com/paper/229635448.html
11.大数据相关知识练习题题库及答案.pdf[单选题]* A 低低 B.低 ,高 C .演),低「 D.高, |W) 39 .基于数据集划分方式的不同,评估方法可以分为三种,下列 错误的是 ()[单选题]* A .交叉验证法 B.自助法 C.过滤法V D.留出法 40 .K N N 算法更 适 合于 () 的分类问题。[单选题]* A .重复时间 B. 稀 有事件V C.规则事件 https://m.book118.com/html/2022/1208/7020113066005022.shtm
12.基于维度分组降维的高维数据近似k近邻查询摘要:针对现有的高维空间近似k近邻查询算法在数据降维时不考虑维度间关联关系的问题,首次提出了基于维度间关联规则进行维度分组降维的方法.该方法通过将相关联维度分成一组进行降维来减少数据信息的损失,同时针对Hash降维后产生的数据偏移问题,设置了符号位并基于符号位的特性对结果进行精炼;为提高维度间关联规则挖掘的效率https://d.wanfangdata.com.cn/periodical/jsjyjyfz202103013
13.大数据分析的分类模型有哪些帆软数字化转型知识库K近邻算法的优点在于其简单、直观,不需要进行模型训练,因此适用于一些实时性要求较高的应用场景。然而,K近邻算法的缺点在于其对数据量和维度较为敏感,计算复杂度较高,特别是在数据量较大的情况下,分类速度较慢。 四、朴素贝叶斯 朴素贝叶斯是一种基于贝叶斯定理的分类模型,通过计算特征与类别之间的条件概率,进行分类https://www.fanruan.com/blog/article/78194/
14.基于k近邻隔离森林的异常检测摘要:异常检测是机器学习与数据挖掘的热点研究领域之一, 主要应用于故障诊断、入侵检测、欺诈检测等领域. 当前已有很多有效的相关研究工作, 特别是基于隔离森林的异常检测方法, 但在处理高维数据时仍然存在许多困难. 提出了一种新的k近邻隔离森林的异常检算法: k-nearest neighbor based isolation forest (KNIF). 该https://c-s-a.org.cn/html/2023/2/8988.html
15.OpenCVPython教程下篇Python语言这也是线性可分的。简而言之,低维空间中的非线性可分离数据更有可能在高维空间中变为线性可分离。通常,可以将d维空间中的点映射到某个D维空间$(D> d)$,以检查线性可分离性的可能性。有一个想法可以通过在低维输入(特征)空间中执行计算来帮助在高维(内核)空间中计算点积。我们可以用下面的例子来说明。https://www.isolves.com/it/cxkf/yy/Python/2022-04-27/53791.html
16.机器学习(二)之无监督学习:数据变换聚类分析主成分分析(principal component analysis,PCA)是一种旋转数据集的方法,旋转后的特征在统计上不相关。在做完这种旋转之后,通常是根据新特征对解释数据的重要性来选择它的一个子集。 算法思路: step1:找到方差最大的方向,将其标记为“成分1”(Component 1)。这是数据中包含最多信息的方向(或向量)。即,沿着这个方向https://www.flyai.com/article/516
17.GitHubcreate6/Titanic而且对于分类问题,数据偏斜不能过于严重,不同类别的数据数量不要有数量级的差距。 而且还要对数据的量级有一个评估,多少个样本,多少个特征,可以估算出其对内存的消耗程度,判断训练过程中内存是否能够放得下。如果放不下就得考虑改进算法或者使用一些降维的技巧了。如果数据量实在太大,那就要考虑分布式了。 3 特征https://github.com/create6/Titanic_data