基金委发布下一代人工智能方法重大研究计划项目指南科技动态中国河南濮阳市科学技术局

关于发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南的通告

国科金发计〔2023〕12号

国家自然科学基金委员会现发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南,请申请人及依托单位按项目指南中所述的要求和注意事项申请。

国家自然科学基金委员会

2023年3月31日??

可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南

可解释、可通用的下一代人工智能方法重大研究计划面向人工智能发展国家重大战略需求,以人工智能的基础科学问题为核心,发展人工智能新方法体系,促进我国人工智能基础研究和人才培养,支撑我国在新一轮国际科技竞争中的主导地位。

一、科学目标

本重大研究计划面向以深度学习为代表的人工智能方法鲁棒性差、可解释性差、对数据的依赖性强等基础科学问题,挖掘机器学习的基本原理,发展可解释、可通用的下一代人工智能方法,并推动人工智能方法在科学领域的创新应用。

二、核心科学问题

本重大研究计划针对可解释、可通用的下一代人工智能方法的基础科学问题,围绕以下三个核心科学问题开展研究。

(一)深度学习的基本原理。

深入挖掘深度学习模型对超参数的依赖关系,理解深度学习背后的工作原理,建立深度学习方法的逼近理论、泛化误差分析理论和优化算法的收敛性理论。

(二)可解释、可通用的下一代人工智能方法。

通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据的人工智能新方法。开发下一代人工智能方法需要的数据库和模型训练平台,完善下一代人工智能方法驱动的基础设施。

(三)面向科学领域的下一代人工智能方法的应用。

发展新物理模型和算法,建设开源科学数据库、知识库、物理模型库和算法库,推动人工智能新方法在解决科学领域复杂问题上的示范性应用。

三、2023年度资助研究方向

(一)培育项目。

围绕上述科学问题,以总体科学目标为牵引,拟以培育项目的方式资助探索性强、选题新颖的申请项目,研究方向如下:

1.深度学习的表示理论和泛化理论

研究卷积神经网络(以及其它带对称性的网络)、图神经网络、transformer网络、循环神经网络、低精度神经网络、动态神经网络、生成扩散模型等模型的泛化误差分析理论、鲁棒性和稳定性理论,并在实际数据集上进行检验;研究无监督表示学习、预训练-微调范式等方法的理论基础,发展新的泛化分析方法,指导深度学习模型和算法设计。

2.深度学习的训练方法

3.微分方程与机器学习

研究求解微分方程正反问题及解算子逼近的概率机器学习方法;基于生成式扩散概率模型的物理场生成、模拟与补全框架;基于微分方程设计新的机器学习模型,设计和分析网络结构、加速模型的推理、分析神经网络的训练过程。

面向具有实际应用价值的反问题,研究机器学习求解微分方程的鲁棒算法;研究传统微分方程算法和机器学习方法的有效结合方法;研究高维微分方程的正则性理论与算法;研究微分方程解算子的逼近方法(如通过机器学习方法获得动理学方程、弹性力学方程、流体力学方程、Maxwell方程以及其它常用微分方程的解算子);融合机器学习方法处理科学计算的基础问题(求解线性方程组、特征值问题等)。

4.隐私保护的机器学习方法

针对主流机器学习问题,结合安全多方计算、全同态加密、零知识证明等方法构建具备实用性的可信机器学习环境。发展隐私保护协同训练和预测方法,发展加密和隐私计算环境的特征聚类、查询和多模型汇聚方法,发展加密跨域迁移学习方法,发展面向对抗样本、后门等分析、攻击、防御和修复方法,研究机器学习框架对模型干扰、破坏和控制方法,发展可控精度的隐私计算方法。

5.图神经网络的新方法

利用调和分析、粒子方程等数学理论解决深度图网络的过度光滑、过度挤压等问题,针对多智能体网络协同控制、药物设计等重要应用场景设计有效的、具有可解释性的图表示学习方法。

6.脑科学启发的新一代人工智能方法

发展对大脑信息整合与编码的定量数学刻画和计算方法,设计新一代脑启发的深度神经网络和循环神经网络,提高传统神经网络的表现性能;建立具有树突几何结构和计算功能的人工神经元数学模型,并用于发展包含生物神经元树突计算的深度神经网络和循环神经网络,提高传统神经网络的表现性能;发展包含多种生物神经元生理特征和生物神经元网络结构特点的人工神经网络及其训练算法,解决图像识别、图像恢复、医学图像重构、地震波检测等应用问题。

7.数据驱动与知识驱动融合的人工智能方法

建立数据驱动的机器学习与知识驱动的符号计算相融合的新型人工智能理论和方法,突破神经网络模型不可解释的瓶颈;研究知识表示与推理框架、大规模隐式表达的知识获取、多源异构知识融合、知识融入的预训练模型、知识数据双驱动的决策推理等,解决不同场景的应用问题。

8.生物医药领域的人工智能方法

发展自动化程度高的先导化合物优化方法,建立生物分子序列的深度生成模型,准确、高效生成满足特定条件(空间结构、功能、物化性质、蛋白环境等)的分子序列;发展蛋白质特征学习的人工智能新方法,用于蛋白质功能、结构、氨基酸突变后亲和力与功能改变等预测以及蛋白质与生物分子(蛋白、肽、RNA、配体等)相互作用预测;针对免疫性疾病等临床表现差异大、预后差等问题,发展序列、结构等抗体多模态数据融合和预测的人工智能模型,用于免疫性疾病的早期诊断和临床分型等。

9.科学计算领域的人工智能方法

针对电子多体问题,建立薛定谔方程数值计算、第一性原理计算、增强采样、自由能计算、粗粒化分子动力学等的人工智能方法,探索人工智能方法在电池、电催化、合金、光伏等体系研究中的应用。

针对典型的物理、化学、材料、生物、燃烧等领域的跨尺度问题和动力学问题,通过融合物理模型与人工智能方法,探索复杂体系变量隐含物理关系的挖掘方法,建立构效关系的数学表达,构建具有通用性的跨尺度人工智能辅助计算理论和方法,解决典型复杂多尺度计算问题。

10.人工智能驱动的下一代微观科学计算平台

发展基于人工智能的高精度、高效率的第一性原理方法;面向物理、化学、材料、生物等领域的实际复杂问题,建立多尺度模型,实现高精度、大尺度和高效率的分子动力学模拟方法;探索建立人工智能与科学计算双驱动的“软-硬件协同优化”方法和科学计算专用平台。

(二)重点支持项目。

围绕核心科学问题,以总体科学目标为牵引,拟以重点支持项目的方式资助前期研究成果积累较好、对总体科学目标在理论和关键技术上能发挥推动作用、具备产学研用基础的申请项目,研究方向如下:

1.经典数值方法与人工智能融合的微分方程数值方法

设计融合经典方法和人工智能方法优势的新型微分方程数值方法。针对经典数值方法处理复杂区域的困难和人工智能方法效果的不确定性、误差的不可控性,发展兼具稳定收敛阶和简便性的新型算法;针对弹性力学、流体力学等微分方程,探索其解的复杂度与逼近函数表达能力之间的定量关系;开发针对三维含时问题的高效并行算法,并应用到多孔介质流等问题;发展求解微分方程反问题的新算法并用于求解实际问题。

2.复杂离散优化的人工智能求解器

面向混合整数优化、组合优化等离散优化问题,建立人工智能和领域知识结合的可通用的求解器框架;建立高精度求解方法和复杂约束问题的可控近似求解方法;发展超大规模并行求解方法和基于新型计算架构的加速方法;在复杂、高效软件设计等场景开展可靠性验证。

3.开放环境下多智能体协作的智能感知理论与方法

针对多模态信息融合中由于数据视角、维度、密度、采集和标注难易程度不同而造成的融合难题,研究基于深度学习的融合模型,实现模态一致性并减少融合过程中信息损失;研究轻量级的模态间在线时空对齐方法;研究能容忍模态间非对齐状态下的融合方法;研究用易采集、易标注模态数据引导的难采集、难标注模态数据的预训练与微调方法;研究大规模多任务、多模态学习的预训练方法,实现少样本/零样本迁移。

4.可通用的专业领域人机交互方法

针对多变输入信号,建立自动化多语种语言、图像、视频等多模态数据生成模型,发展可解释的多轮交互决策方法;建立机器学习和知识搜索的有效结合方法;探索新方法在不同专业领域场景中的应用。

5.下一代多模态数据编程框架

6.支持下一代人工智能的开放型高质量科学数据库

研究跨领域、多模态科学数据的主动发现、统一存储和统一管理方法。研究基于主动学习的科学数据、科技文献知识抽取与融合方法。研究跨学科、多尺度科学数据的知识对象标识化、语义化构建方法。研究融合领域知识的多模态预训练语言模型,开发通用新型数据挖掘方法。形成具有一定国际影响力的覆盖生命、化学、材料、遥感、空间科学等领域的高质量、通用型科学数据库,为人工智能驱动的科学研究新范式提供基础科学数据资源服务。

7.高精度、可解释的谱学和影像数据分析方法

发展光谱、质谱和各类影像数据处理的人工智能方法。建立融合模拟与实验数据的可解释“谱-构-效”模型,开发人工智能驱动的光谱实时解读与反演软件;基于AlphaFold等蛋白结构预测方法,建立高精度冷冻电镜蛋白结构反演算法等。

8.高精度、可解释的生物大分子设计平台

四、项目遴选的基本原则

(一)紧密围绕核心科学问题,鼓励基础性和交叉性的前沿探索,优先支持原创性研究。

(二)优先支持面向发展下一代人工智能新方法或能推动人工智能新方法在科学领域应用的研究项目。

(三)重点支持项目应具有良好的研究基础和前期积累,对总体科学目标有直接贡献与支撑。

五、2023年度资助计划

2023年度拟资助培育项目25~30项,直接费用资助强度约为80万元/项,资助期限为3年,培育项目申请书中研究期限应填写“2024年1月1日—2026年12月31日”;拟资助重点支持项目6~8项,直接费用资助强度约为300万元/项,资助期限为4年,重点支持项目申请书中研究期限应填写“2024年1月1日—2027年12月31日”。

六、申请要求

(一)申请条件。

本重大研究计划项目申请人应当具备以下条件:

1.具有承担基础研究课题的经历;

2.具有高级专业技术职务(职称)。

在站博士后研究人员、正在攻读研究生学位以及无工作单位或者所在单位不是依托单位的人员不得作为申请人进行申请。

(二)限项申请规定。

(三)申请注意事项。

1.本重大研究计划项目实行无纸化申请。申请书提交日期为2023年5月8日—5月15日16时。

2.项目申请书采用在线方式撰写。对申请人具体要求如下:

(1)申请人应当按照科学基金网络信息系统中重大研究计划项目的填报说明与撰写提纲要求在线填写和提交电子申请书及附件材料。

(3)申请书中的资助类别选择“重大研究计划”,亚类说明选择“培育项目”或“重点支持项目”,附注说明选择“可解释、可通用的下一代人工智能方法”,受理代码选择T01,根据申请的具体研究内容选择不超过5个申请代码。

培育项目和重点支持项目的合作研究单位不得超过2个。

(4)申请人在“立项依据与研究内容”部分,应当首先说明申请符合本项目指南中的资助研究方向,以及对解决本重大研究计划核心科学问题、实现本重大研究计划总体科学目标的贡献。

3.依托单位应当按照要求完成依托单位承诺、组织申请以及审核申请材料等工作。在2023年5月15日16时前通过信息系统逐项确认提交本单位电子申请书及附件材料,并于5月16日16时前在线提交本单位项目申请清单。

THE END
1.深度学习经典方法深度学习的常用方法这些经典的深度学习方法在不同的领域中都有广泛的应用。卷积神经网络用于图像识别,循环神经网络适用于序列数据的处理,生成对抗网络实现逼真样本的生成,深度强化学习处理智能决策制定者问题,自编码器用于数据压缩与重构,注意力机制实现对关键信息的关注。这些方法的不断发展和创新推动着深度学习领域的进步。 https://blog.csdn.net/m0_73916791/article/details/135119405
2.科学网—[转载]基于深度学习的MRI脑卒中病灶分割方法综述摘 要脑卒中病灶自动分割方法成为近几年的研究热点。为了全面研究用于MRI脑卒中病灶分割的深度学习方法的现状,针对脑卒中治疗的临床问题,进一步阐述了基于深度学习的病灶分割的研究背景及其挑战性,并介绍脑卒中病灶分割的常用公共数据集(ISLES和ATLAS)。然后,重点阐述了基于深度学习的脑卒中病灶分割方法的创新与进展,从网络https://wap.sciencenet.cn/blog-3472670-1422696.html
3.60项基于深度学习的SLAM顶会开源方案汇总(下篇)3D视觉工坊在本文中,我们有兴趣分析这种行为。为此,我们提出了一个新的框架,视觉定位从相对姿态。在这个框架内使用一个经典的基于特征的方法,我们展示了最先进的性能。用不同层次的学习方法代替经典方法,我们然后找出深度学习方法表现不佳的原因。基于我们的分析,我们对未来的工作提出了建议。https://www.shangyexinzhi.com/article/5946490.html
4.Light深度学习赋能光谱成像澎湃号·湃客澎湃新闻三、深度学习方法 计算光谱成像的过程编码采样系统设计和光谱图像重建,深度学习技术可以应用在该过程中的每一个方面。如何对这些不同的技术进行有效分类,是一个关键问题。综述提出根据光的属性进行分类,即将计算光谱成像系统按照编码方式的不同,分成了振幅编码、相位编码和波长编码。 https://www.thepaper.cn/newsDetail_forward_17489049
5.深度学习目标检测方法综述深度学习方法应用到目标检测领域之前, 目标检测领域发展平缓. 在2012年的ImageNet[2]分类任务中, 卷积神经网络的应用使得图像分类任务的效果大大提高, 在此推动下, Girshick等[3]首次在目标检测领域中使用了区域卷积网络(regions with CNN features, R-CNN), 在检测效果上取得了非常巨大的提升. 此后, 深度学习与https://c-s-a.org.cn/html/2022/2/8303.html
6.人脸识别技术全面总结:从传统方法到深度学习机器之心英国赫特福德大学与 GBG Plc 的研究者近日发布了一篇综述论文,对人脸识别方法进行了全面的梳理和总结,其中涵盖各种传统方法和如今风头正盛的深度学习方法。机器之心重点编译介绍了其中的深度学习方法部分,更多有关传统人脸识别方法的内容请参阅原论文。 论文地址:https://arxiv.org/abs/1811.00116 https://www.jiqizhixin.com/articles/2019-02-10-4
7.学术长安华山论剑:“深度学习与大数据感知”国际研讨会专家观点韩崇昭:基于脑认知机理的条件证据理论及其深度学习方法 在网络化系统对智能感知的需求方面,韩崇昭教授介绍,多平台协同作战战术信息系统,需要在武器协同数据链的支持下,将武器平台、传感器平台和指控单元进行有机地交联,完成目标探测与识别,目标跟踪与定位,目标协同精确打击与评估等功能,我国对网络化协同作战的重大需求是未来https://ipiu.xidian.edu.cn/info/1097/1189.htm
8.AI啊,我这里有些羞羞的东西,你要不要看一眼?新闻频道不过,用这些机器学习算法有一点麻烦:每次只能辨别出一个值,所以要针对三种活力不同的精子各运行一次,比较费时间。 再用深度学习方法 试完了传统机器学习方法,再来试试深度学习,用CNN来辨别。 这里不能直接用原始数据,需要提前做一些处理,从视频中提取原始帧,用光流生成帧序列的时间表示。 https://news.hexun.com/2019-12-07/199586680.html
9.基于机器学习的肠道菌群数据建模与分析研究综述(3)提取数据的深层次抽象特征,其中主要包括两部分工作,一是通过机器学习的方法找到潜藏的特征信息标志量[26],如Montassier等[27]使用机器学习方法开发了一种BSI风险指数,该指数结合线性回归算法用于预测BSI发病率;二是采用深度学习方法将原始数据进行重组,例如Zhang等[17]通过浅层自编码器、深层自编码器、变分自编码http://journals.im.ac.cn/html/wswxtbcn/2021/1/tb21010180.htm
10.深度学习模型调优方法(总结)51CTO博客深度学习模型调优方法(总结) 一、总结 一句话总结: 超参数的优化,其它比如正则化(regularization)、丢弃参数(dropout)、提前停止训练(early stopping) 1、如何判断模型好坏? 【查看loss和accuracy】:通过模型训练跑代码,我们可以分别从训练集和测试集上看到这个模型造成的损失大小(loss),还有它的精确率(accuracy)。 https://blog.51cto.com/u_15079076/3828696
11.英特尔助力TechMahindra优化其对话式AI平台性能3. 采用 TTS 模型的深度学习方法 4. 模型架构概述 5. 面向英特尔? 架构的优化方法和性能结果 6. 配置详情 7. 结论 8. 适用的解决方案 Tech Mahindra 与英特尔合作开发了以 Tacotron2 和 Fastspeech2 作为特征生成网络,Waveglow 作为声码器的模型架构。这些架构能在推理期间兼顾合成语音质量和实时率。https://www.intel.cn/content/www/cn/zh/customer-spotlight/cases/sayint-optimization-for-neural-tts.html
12.一文看懂机器学习「3种学习方法+7个实操步骤+15种常见算法」机器学习研究和构建的是一种特殊算法(而非某一个特定的算法),能够让计算机自己在数据中学习从而进行预测。 所以,机器学习不是某种具体的算法,而是很多算法的统称。 机器学习包含了很多种不同的算法,深度学习就是其中之一,其他方法包括决策树,聚类,贝叶斯等。 https://easyai.tech/ai-definition/machine-learning/
13.图像目标分割1概述纯粹的三维数据集是稀缺的,通常可以提供CAD网格或者其他的体元表示如点云等。为分割问题获取三维数据集是困难的,因此很少有深度学习方法可以处理这种数据。 斯坦福2D-3D-S数据集(http://buildingparser.stanford.edu)是一个多模态、大规模室内空间数据集,是斯坦福三维语义分析工作[64]的扩展。提供了多个模态:二维RGBhttps://developer.aliyun.com/article/1208121