基金委发布下一代人工智能方法重大研究计划项目指南科技动态中国河南濮阳市科学技术局

关于发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南的通告

国科金发计〔2023〕12号

国家自然科学基金委员会现发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南,请申请人及依托单位按项目指南中所述的要求和注意事项申请。

国家自然科学基金委员会

2023年3月31日??

可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南

可解释、可通用的下一代人工智能方法重大研究计划面向人工智能发展国家重大战略需求,以人工智能的基础科学问题为核心,发展人工智能新方法体系,促进我国人工智能基础研究和人才培养,支撑我国在新一轮国际科技竞争中的主导地位。

一、科学目标

本重大研究计划面向以深度学习为代表的人工智能方法鲁棒性差、可解释性差、对数据的依赖性强等基础科学问题,挖掘机器学习的基本原理,发展可解释、可通用的下一代人工智能方法,并推动人工智能方法在科学领域的创新应用。

二、核心科学问题

本重大研究计划针对可解释、可通用的下一代人工智能方法的基础科学问题,围绕以下三个核心科学问题开展研究。

(一)深度学习的基本原理。

深入挖掘深度学习模型对超参数的依赖关系,理解深度学习背后的工作原理,建立深度学习方法的逼近理论、泛化误差分析理论和优化算法的收敛性理论。

(二)可解释、可通用的下一代人工智能方法。

通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据的人工智能新方法。开发下一代人工智能方法需要的数据库和模型训练平台,完善下一代人工智能方法驱动的基础设施。

(三)面向科学领域的下一代人工智能方法的应用。

发展新物理模型和算法,建设开源科学数据库、知识库、物理模型库和算法库,推动人工智能新方法在解决科学领域复杂问题上的示范性应用。

三、2023年度资助研究方向

(一)培育项目。

围绕上述科学问题,以总体科学目标为牵引,拟以培育项目的方式资助探索性强、选题新颖的申请项目,研究方向如下:

1.深度学习的表示理论和泛化理论

研究卷积神经网络(以及其它带对称性的网络)、图神经网络、transformer网络、循环神经网络、低精度神经网络、动态神经网络、生成扩散模型等模型的泛化误差分析理论、鲁棒性和稳定性理论,并在实际数据集上进行检验;研究无监督表示学习、预训练-微调范式等方法的理论基础,发展新的泛化分析方法,指导深度学习模型和算法设计。

2.深度学习的训练方法

3.微分方程与机器学习

研究求解微分方程正反问题及解算子逼近的概率机器学习方法;基于生成式扩散概率模型的物理场生成、模拟与补全框架;基于微分方程设计新的机器学习模型,设计和分析网络结构、加速模型的推理、分析神经网络的训练过程。

面向具有实际应用价值的反问题,研究机器学习求解微分方程的鲁棒算法;研究传统微分方程算法和机器学习方法的有效结合方法;研究高维微分方程的正则性理论与算法;研究微分方程解算子的逼近方法(如通过机器学习方法获得动理学方程、弹性力学方程、流体力学方程、Maxwell方程以及其它常用微分方程的解算子);融合机器学习方法处理科学计算的基础问题(求解线性方程组、特征值问题等)。

4.隐私保护的机器学习方法

针对主流机器学习问题,结合安全多方计算、全同态加密、零知识证明等方法构建具备实用性的可信机器学习环境。发展隐私保护协同训练和预测方法,发展加密和隐私计算环境的特征聚类、查询和多模型汇聚方法,发展加密跨域迁移学习方法,发展面向对抗样本、后门等分析、攻击、防御和修复方法,研究机器学习框架对模型干扰、破坏和控制方法,发展可控精度的隐私计算方法。

5.图神经网络的新方法

利用调和分析、粒子方程等数学理论解决深度图网络的过度光滑、过度挤压等问题,针对多智能体网络协同控制、药物设计等重要应用场景设计有效的、具有可解释性的图表示学习方法。

6.脑科学启发的新一代人工智能方法

发展对大脑信息整合与编码的定量数学刻画和计算方法,设计新一代脑启发的深度神经网络和循环神经网络,提高传统神经网络的表现性能;建立具有树突几何结构和计算功能的人工神经元数学模型,并用于发展包含生物神经元树突计算的深度神经网络和循环神经网络,提高传统神经网络的表现性能;发展包含多种生物神经元生理特征和生物神经元网络结构特点的人工神经网络及其训练算法,解决图像识别、图像恢复、医学图像重构、地震波检测等应用问题。

7.数据驱动与知识驱动融合的人工智能方法

建立数据驱动的机器学习与知识驱动的符号计算相融合的新型人工智能理论和方法,突破神经网络模型不可解释的瓶颈;研究知识表示与推理框架、大规模隐式表达的知识获取、多源异构知识融合、知识融入的预训练模型、知识数据双驱动的决策推理等,解决不同场景的应用问题。

8.生物医药领域的人工智能方法

发展自动化程度高的先导化合物优化方法,建立生物分子序列的深度生成模型,准确、高效生成满足特定条件(空间结构、功能、物化性质、蛋白环境等)的分子序列;发展蛋白质特征学习的人工智能新方法,用于蛋白质功能、结构、氨基酸突变后亲和力与功能改变等预测以及蛋白质与生物分子(蛋白、肽、RNA、配体等)相互作用预测;针对免疫性疾病等临床表现差异大、预后差等问题,发展序列、结构等抗体多模态数据融合和预测的人工智能模型,用于免疫性疾病的早期诊断和临床分型等。

9.科学计算领域的人工智能方法

针对电子多体问题,建立薛定谔方程数值计算、第一性原理计算、增强采样、自由能计算、粗粒化分子动力学等的人工智能方法,探索人工智能方法在电池、电催化、合金、光伏等体系研究中的应用。

针对典型的物理、化学、材料、生物、燃烧等领域的跨尺度问题和动力学问题,通过融合物理模型与人工智能方法,探索复杂体系变量隐含物理关系的挖掘方法,建立构效关系的数学表达,构建具有通用性的跨尺度人工智能辅助计算理论和方法,解决典型复杂多尺度计算问题。

10.人工智能驱动的下一代微观科学计算平台

发展基于人工智能的高精度、高效率的第一性原理方法;面向物理、化学、材料、生物等领域的实际复杂问题,建立多尺度模型,实现高精度、大尺度和高效率的分子动力学模拟方法;探索建立人工智能与科学计算双驱动的“软-硬件协同优化”方法和科学计算专用平台。

(二)重点支持项目。

围绕核心科学问题,以总体科学目标为牵引,拟以重点支持项目的方式资助前期研究成果积累较好、对总体科学目标在理论和关键技术上能发挥推动作用、具备产学研用基础的申请项目,研究方向如下:

1.经典数值方法与人工智能融合的微分方程数值方法

设计融合经典方法和人工智能方法优势的新型微分方程数值方法。针对经典数值方法处理复杂区域的困难和人工智能方法效果的不确定性、误差的不可控性,发展兼具稳定收敛阶和简便性的新型算法;针对弹性力学、流体力学等微分方程,探索其解的复杂度与逼近函数表达能力之间的定量关系;开发针对三维含时问题的高效并行算法,并应用到多孔介质流等问题;发展求解微分方程反问题的新算法并用于求解实际问题。

2.复杂离散优化的人工智能求解器

面向混合整数优化、组合优化等离散优化问题,建立人工智能和领域知识结合的可通用的求解器框架;建立高精度求解方法和复杂约束问题的可控近似求解方法;发展超大规模并行求解方法和基于新型计算架构的加速方法;在复杂、高效软件设计等场景开展可靠性验证。

3.开放环境下多智能体协作的智能感知理论与方法

针对多模态信息融合中由于数据视角、维度、密度、采集和标注难易程度不同而造成的融合难题,研究基于深度学习的融合模型,实现模态一致性并减少融合过程中信息损失;研究轻量级的模态间在线时空对齐方法;研究能容忍模态间非对齐状态下的融合方法;研究用易采集、易标注模态数据引导的难采集、难标注模态数据的预训练与微调方法;研究大规模多任务、多模态学习的预训练方法,实现少样本/零样本迁移。

4.可通用的专业领域人机交互方法

针对多变输入信号,建立自动化多语种语言、图像、视频等多模态数据生成模型,发展可解释的多轮交互决策方法;建立机器学习和知识搜索的有效结合方法;探索新方法在不同专业领域场景中的应用。

5.下一代多模态数据编程框架

6.支持下一代人工智能的开放型高质量科学数据库

研究跨领域、多模态科学数据的主动发现、统一存储和统一管理方法。研究基于主动学习的科学数据、科技文献知识抽取与融合方法。研究跨学科、多尺度科学数据的知识对象标识化、语义化构建方法。研究融合领域知识的多模态预训练语言模型,开发通用新型数据挖掘方法。形成具有一定国际影响力的覆盖生命、化学、材料、遥感、空间科学等领域的高质量、通用型科学数据库,为人工智能驱动的科学研究新范式提供基础科学数据资源服务。

7.高精度、可解释的谱学和影像数据分析方法

发展光谱、质谱和各类影像数据处理的人工智能方法。建立融合模拟与实验数据的可解释“谱-构-效”模型,开发人工智能驱动的光谱实时解读与反演软件;基于AlphaFold等蛋白结构预测方法,建立高精度冷冻电镜蛋白结构反演算法等。

8.高精度、可解释的生物大分子设计平台

四、项目遴选的基本原则

(一)紧密围绕核心科学问题,鼓励基础性和交叉性的前沿探索,优先支持原创性研究。

(二)优先支持面向发展下一代人工智能新方法或能推动人工智能新方法在科学领域应用的研究项目。

(三)重点支持项目应具有良好的研究基础和前期积累,对总体科学目标有直接贡献与支撑。

五、2023年度资助计划

2023年度拟资助培育项目25~30项,直接费用资助强度约为80万元/项,资助期限为3年,培育项目申请书中研究期限应填写“2024年1月1日—2026年12月31日”;拟资助重点支持项目6~8项,直接费用资助强度约为300万元/项,资助期限为4年,重点支持项目申请书中研究期限应填写“2024年1月1日—2027年12月31日”。

六、申请要求

(一)申请条件。

本重大研究计划项目申请人应当具备以下条件:

1.具有承担基础研究课题的经历;

2.具有高级专业技术职务(职称)。

在站博士后研究人员、正在攻读研究生学位以及无工作单位或者所在单位不是依托单位的人员不得作为申请人进行申请。

(二)限项申请规定。

(三)申请注意事项。

1.本重大研究计划项目实行无纸化申请。申请书提交日期为2023年5月8日—5月15日16时。

2.项目申请书采用在线方式撰写。对申请人具体要求如下:

(1)申请人应当按照科学基金网络信息系统中重大研究计划项目的填报说明与撰写提纲要求在线填写和提交电子申请书及附件材料。

(3)申请书中的资助类别选择“重大研究计划”,亚类说明选择“培育项目”或“重点支持项目”,附注说明选择“可解释、可通用的下一代人工智能方法”,受理代码选择T01,根据申请的具体研究内容选择不超过5个申请代码。

培育项目和重点支持项目的合作研究单位不得超过2个。

(4)申请人在“立项依据与研究内容”部分,应当首先说明申请符合本项目指南中的资助研究方向,以及对解决本重大研究计划核心科学问题、实现本重大研究计划总体科学目标的贡献。

3.依托单位应当按照要求完成依托单位承诺、组织申请以及审核申请材料等工作。在2023年5月15日16时前通过信息系统逐项确认提交本单位电子申请书及附件材料,并于5月16日16时前在线提交本单位项目申请清单。

THE END
1.目前主流的人工智能学习框架有哪些? 支持分布式训练和 GPU 加速。 使用场景: PyTorch 在学术界和工业界都非常受欢迎,尤其适合快速迭代的研究项目和需要灵活性的生产环境。 Keras Keras 最早是作为一个独立的深度学习框架推出的,后来成为 TensorFlow 的高级 API。它以易用性著称,是初学者学习深度学习的首选。 https://blog.csdn.net/Xhz181888/article/details/144437120
2.微软开发首个AI认知训练框架训练效率提升300%人工智能根据上海市精神卫生中心与微软亚洲研究院联合研究,利用多模态大模型开发了“忆我”(ReMe)个性化认知训练框架。该框架基于Azure OpenAI服务,并在易用性、界面友好性、功能专业性和入门难易度等多个维度进行设计。 “忆我”框架支持文字、图像、语音等多种模态的输入输出,以对话机器人的形式为用户提供全新的认知训练体验https://ai.zol.com.cn/901/9016520.html
3.火箭发射:一种有效轻量网络训练框架像点击率预估这样的在线实时响应系统对响应时间要求非常严格,结构复杂,层数很深的深度模型不能很好的满足严苛的响应时间的限制。为了获得满足响应时间限制的具有优良表现的模型,我们提出了一个新型框架:训练阶段,同时训练繁简两个复杂度有明显差异的网络,简单的网络称为轻量网络(light net),复杂的网络称为助推器网络(bohttps://www.51cto.com/article/563252.html
4.字节最新复杂召回模型,提出深度检索DR框架解决超大规模推荐系统中在本文中,我们提出了一个端到端的模型框架深度检索DR。DR将所有的候选集编码到离散的隐式空间中,随着其他的网络参数一起学习。模型训练完成后的在线服务阶段,则通过beam search的方式获取最相关的候选集。实验证明了DR可以接近线性的计算复杂度,同时取得了与暴力算法相当的效果。https://cloud.tencent.com/developer/article/1698045
5.科学网—[转载]群视角下的多智能体强化学习方法综述依靠分布式训练框架IMPALA,DeepMind在开发星际争霸AlphaStar时,采用了集中式训练分布式执行的范式设计了三大类智能体对象:主智能体(main agent)为正在训练的智能体及历史数据,采用优先级虚拟自对弈的方式来选取;联盟利用者(league exploiter)能打败联盟中的所有智能体,按照有优先级虚拟自对弈的方式与全联盟的对手进行训练;https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698
6.计算机学院七篇论文入选数据库领域顶级会议VLDB2023文章“Galvatron: Efficient Transformer Training over Multiple GPUs Using Automatic Parallelism”提出了一套面向大规模Transformer模型的自动并行训练框架。相比于现有工作,该工作主要有三方面优势:1)可以支持更多的并行维度,并且具备面对差异化的模型结构和不同集群硬件条件下的自适应调优能力;2)面对庞大的搜索空间,设计https://news.pku.edu.cn/jxky/3347dc1aea5547b28f167b4110d74f8e.htm
7.TinyMaix:超轻量级推理框架即将支持 MaixHub 在线模型训练 在Arduino ATmega328上运行 mnist demo 实例 mnist demo 0000000000000000000000000000 0000000000000000000000000000 0000000000000000000000000000 000000000077AFF9500000000000 000000000AFFFFFFD10000000000 00000000AFFFD8BFF70000000000 00000003FFD2000CF80000000000 00000004FD10007FF40000000000 00000000110000http://en.wiki.sipeed.com/news/others/tinymaix_cnx/tinymaix_cnx.html
8.2019机器之心人工智能年度奖项正式公布:关注创业先锋,聚焦产品一流科技推出的分布式深度学习训练框架 OneFlow,是完全独立自主研发的面向大模型大数据大规模的流式计算框架,目前已经达到市场产品级应用水平。并于 2019 年落地了诸多代表性案例客户,包括头部互联网公司以及高校、研究院所、人工智能园区与政务服务等行业的核心机构。案例主要覆盖海量图像识别、自然语言处理大模型应用,广告https://www.zhuanzhi.ai/document/2abfb47db9cd9ab70b4144f329e147b8
9.朱庆华宋珊珊风险视角下生成式人工智能的司法应用路径智能作为促进人类发展的“工具”价值定位,有效识别法律算法化与算法法律化的冲突和风险,从而确立风险控制模式下技术介入司法的边界,据此以技术弥补智能司法应用功能应然性发挥不足困境,探索“司法数据—法律监督—辅助办案—社会治理”多维司法应用构面,并从“伦理原则—法律规则—技术方法”三个层面完善应用场域的框架策略https://www.jfdaily.com/sgh/detail?id=1247369
10.CVPR2021有的放矢,用图像分割与像素投票找到预定义的地标点在定义了真实地标分割图和真实方向投票图后,我们可以监督所提出的 VS-Net 预测这两个图。经过训练,VS-Net 可以预测查询图像的分割图和投票图,我们可以据此建立精确的二维到三维的对应关系,以实现稳健的视觉定位。 基于原型的在线学习三元监督投票分割网络: https://www.sensetime.com/cn/technology-new-detail/41164696?categoryId=48
11.华为机器学习人工智能详解MindSporeAI计算训练推理框架实践当当乐学者图书专营店在线销售正版《深度学习与MindSpore实践 华为机器学习人工智能详解 MindSpore AI计算训练推理框架实践 卷积神经网络实现指南 深度学习实例书籍》。最新《深度学习与MindSpore实践 华为机器学习人工智能详解 MindSpore AI计算训练推理框架实践 卷积神经http://product.dangdang.com/1649993316.html