下一代人工智能方法重大研究计划项目指南发布政策资讯

近日,国家自然科学基金委员会发布可解释、可通用的下一代人工智能方法重大研究计划2024年度项目指南,面向人工智能发展国家重大战略需求,以人工智能的基础科学问题为核心,发展人工智能新方法体系,促进我国人工智能基础研究和人才培养,支撑我国在新一轮国际科技竞争中的主导地位。具体通知如下:

本重大研究计划面向以深度学习为代表的人工智能方法鲁棒性差、可解释性差、对数据的依赖性强等基础科学问题,挖掘机器学习的基本原理,发展可解释、可通用的下一代人工智能方法,并推动人工智能方法在科学领域的创新应用。

本重大研究计划针对可解释、可通用的下一代人工智能方法的基础科学问题,围绕以下三个核心科学问题开展研究。

(一)深度学习的基本原理

深入挖掘深度学习模型对超参数的依赖关系,理解深度学习背后的工作原理,建立深度学习方法的逼近理论、泛化误差分析理论和优化算法的收敛性理论。

(二)可解释、可通用的下一代人工智能方法

通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据的人工智能新方法。开发下一代人工智能方法需要的数据库和模型训练平台,完善下一代人工智能方法驱动的基础设施。

(三)面向科学领域的下一代人工智能方法的应用

发展新物理模型和算法,建设开源科学数据库、知识库、物理模型库和算法库,推动人工智能新方法在解决科学领域复杂问题上的示范性应用。

(一)培育项目

围绕上述科学问题,以总体科学目标为牵引,对于探索性强、选题新颖、前期研究基础较好的申请项目,将以培育项目的方式予以资助,研究方向如下:

1.神经网络的新架构和新的预训练或自监督学习方法

针对图像、视频、图、流场等数据,发展更高效的神经网络新架构,预训练或自监督学习方法,并在真实数据集上进行验证。

2.深度学习的表示理论和泛化理论

研究卷积神经网络(以及其它带对称性的网络)、图神经网络、循环神经网络、低精度神经网络、动态神经网络、生成扩散模型等模型的泛化误差分析理论、鲁棒性和稳定性理论,并在实际数据集上进行验证;研究无监督表示学习、预训练-微调范式等方法的理论基础,发展新的泛化分析方法,指导深度学习模型和算法设计。

3.深度学习训练算法的理论基础

4.大模型的基础问题

研究多任务、多数据、大模型的基础问题,包括但不限于大模型的表示理论和泛化理论、大模型训练的稳定性、标度率(scalinglaw)、涌现等现象;研究新型(structured)statemodel的基础性质,包括它是否有记忆灾难(curseofmemory)的困难;理解Transformer模型的表达和泛化能力、上下文学习(In-Contextlearning),ChainofThoughts推理的有效性,以及模型的外推能力(例如lengthgeneralization)等。

5.微分方程与机器学习

研究求解微分方程正反问题及解算子逼近的概率机器学习方法;基于生成式扩散概率模型的物理场生成、模拟与补全框架;基于微分方程设计新的机器学习模型和网络结构,加速模型的推理、分析神经网络的训练过程。

6.图神经网络的新方法

利用随机游走、多项式近似、调和分析、粒子方程等数学理论解决深度图神经网络过度光滑、过度挤压、适用异配图与动态图等问题;针对药物设计、推荐系统、多智能体网络协同控制等重要应用场景设计有效的、可扩展的、具有可解释性的图表示学习方法。

7.人工智能的安全性问题

针对主流机器学习问题,发展隐私保护协同训练和预测方法;发展面向对抗样本、数据投毒、后门等分析、攻击、防御和修复方法;研究机器学习框架对模型干扰、破坏和控制的方法;发展可控精度的隐私计算方法,数据和模型(包括大模型)的公平性、可靠性的评估与评级方法。

8.科学计算领域的人工智能方法

针对电子多体问题,建立薛定谔方程数值计算、第一性原理计算、自由能计算、粗粒化分子动力学等的人工智能方法,探索人工智能方法在电池、电催化、合金、光伏等体系研究中的应用。

针对典型的物理、化学、材料、生物、燃烧等领域的跨尺度问题和动力学问题,发展物理模型与人工智能的融合方法,探索复杂体系变量隐含物理关系的挖掘方法和构效关系的数学表达,建立具有通用性的跨尺度人工智能辅助计算理论和方法,解决典型复杂多尺度计算问题。

9.以数据为中心的机器学习

针对数据质量、数量和效率等因素,发展机器学习方法为下游机器学习模型提供大量高质量数据;针对AIforScience数据侧,研究和设计高效的科学数据(如对蛋白质和药物构图)构建和预处理方式;针对大模型数据侧,从数据获取成本和效率出发,建立科学和系统的数据质量评估策略,设计高效的数据选择方法,构建有效的数据配比方式,并探索大模型辅助数据质量提升的方法(如自动数据标注)。

10.基于量子计算的机器学习算法

研究不同类型的学习方法如何映射到一般的量子过程,提出新算法利用量子特性实现高效学习;研究量子机器学习相对于经典机器学习方法在表达能力以及泛化能力上的优势,探索量子机器学习的可解释性,建立量子机器学习在量子物理和化学的应用场景。

11.开放型项目

(二)重点支持项目

围绕核心科学问题,以总体科学目标为牵引,拟以重点支持项目的方式资助前期研究成果积累较好、对总体科学目标在理论和关键技术上能发挥推动作用、具备产学研用基础的申请项目,研究方向如下:

1.下一代人工智能方法

发展结合逻辑推理、知识和规则的人工智能方法,建立具有可解释和可通用性的人工智能理论框架;发展适用于连续、密集数据(如图像)和非结构化数据(如分子结构)的新型神经网络架构,有效捕捉空间、结构、语义等多维度的上下文信息,提高对数据的建模能力。在真实数据集上进行验证。

2.新一代脑启发的人工智能模型与有效训练算法

针对大脑神经元的物理形态和生物物理的多样性,建立生物神经元与人工神经元之间的简洁且有效的映射关系,使人工神经元具有生物神经元的树突非线性整合与计算功能,为建立其它类型生物神经元与人工神经元的映射提供统一的理论和算法框架。结合大脑神经元网络连接结构、脑区异质性和宏观梯度等特点,设计带生物神经元特性约束的人工神经网络模型,实现记忆、决策等高级认知功能。实现不少于3种生物神经元与人工神经元之间的有效映射和3种重要的树突计算功能,与现有映射相比,实现精度、性能和参数可解释性上的提升。

3.多智能体协作学习理论与方法

4.多模态融合及生成基础模型

研究多模态数据融合及生成的基础模型,解决数据视角、维度、密度、采集和标注难易程度不同而造成的融合难题;研究模态融合过程中的模态对齐问题,保证模态预测的一致性并减少融合过程中信息损失;研究轻量级的融合模型,提升在模态间非完美对齐状态下融合模型的鲁棒性;研究用易采集、易标注模态数据来引导难采集、难标注模态数据的预训练与微调方法;研究大规模多任务、多模态学习的预训练问题,实现少样本/零样本迁移,发展跨模态多样性数据生成的方法;研究多模态大模型的新型、统一概率建模方法,解决离散、连续混合数据类型的概率建模与生成难题,提高多模态基础模型的生成效率。在多模态模型中实现不少于3个模态的表示学习、对齐及生成能力,模型参数不少于7B,探索在智能座舱、自动驾驶或多模态对话等领域的应用验证。积累用于训练多模态大模型的优质标注数据,并探索数据闭环,采集数量超过标注样本不少于2个量级的非完美标注或无标注数据,实现模型迭代优化。

5.模型与数据融合的大模型训练方法

探索系统性的、自适应数据选取方法,以达到数据和模型的有机融合,包括:在模型训练过程中on-the-fly选取下一步所采用的数据的方法;建立数据和模型有机融合的机器学习框架;发展替代大模型训练普遍采用的先处理数据、再做模型训练的两步走模式的有效方法。

6.视频原生的自监督学习方法

7.支持下一代人工智能的通用型高质量科学数据库

大规模高质量科学数据是人工智能驱动的科学研究新范式的必要条件。研究科学数据、科技文献等的知识对象标注、抽取、融合中的主动学习机制与自动关联算法;研究面向知识对象的智能编码与机器可识读的多元解析,支持跨领域知识对象的广谱关联,实现与不少于3个国际主流科技资源标识动态互通,支持与外部数据资源智能化融合;研究多模态跨学科知识碎片对齐与知识对象识别方法,以及多学科领域数据自动生产与增强算法,形成符合国际规范或经同行评议的且覆盖不少于8个学科领域的高质量科学数据1PB以上。

8.AIforScience的基础设施建设与示范应用

发展AIforScience的基础设施方法,包括:基础物理模型的人工智能算法;高效率、高精度的实验表征算法;自动化和智能化实验平台建设;科学文献和科学数据的整合与智能应用。发展AIforScience的创新应用,包括但不限于:复杂催化体系(催化剂动态结构变化、反应网络高度复杂等问题);碳达峰和碳中和中的核心催化反应;工况条件下的电化学表征方法;生物医学中的高效率和高精度的成像技术;有机合成的自动化和智能化解决方案;定向进化蛋白质工程等。重点支持理论和实验相结合并形成闭环的项目。

(一)紧密围绕核心科学问题,鼓励基础性和交叉性的前沿探索,优先支持原创性研究。

(二)优先支持面向发展下一代人工智能新方法或能推动人工智能新方法在科学领域应用的研究项目。

(三)重点支持项目应具有良好的研究基础和前期积累,对总体科学目标有直接贡献与支撑。

拟资助培育项目约25项,直接费用资助强度不超过80万元/项,资助期限为3年,培育项目申请书中研究期限应填写“2025年1月1日-2027年12月31日”;

拟资助重点支持项目约6项,直接费用资助强度约为300万元/项,资助期限为4年,重点支持项目申请书中研究期限应填写“2025年1月1日-2028年12月31日”。

(一)申请条件

本重大研究计划项目申请人应当具备以下条件:

1.具有承担基础研究课题的经历;

2.具有高级专业技术职务(职称)。

在站博士后研究人员、正在攻读研究生学位以及无工作单位或者所在单位不是依托单位的人员不得作为申请人进行申请。

(二)限项申请规定

(三)申请注意事项

1.本重大研究计划项目实行无纸化申请。申请书提交日期为2024年4月15日-4月22日16时。

(1)申请人应当按照科学基金网络信息系统中重大研究计划项目的填报说明与撰写提纲要求在线填写和提交电子申请书及附件材料。

扫描二维码进入

(3)申请书中的资助类别选择“重大研究计划”,亚类说明选择“培育项目”或“重点支持项目”,附注说明选择“可解释、可通用的下一代人工智能方法”,受理代码选择T01,根据申请的具体研究内容选择不超过5个申请代码。培育项目和重点支持项目的合作研究单位不得超过2个。

(4)申请人在申请书起始部分应明确说明申请符合本项目指南中的资助研究方向,以及对解决本重大研究计划核心科学问题、实现本重大研究计划科学目标的贡献。

2.依托单位应当按照要求完成依托单位承诺、组织申请以及审核申请材料等工作。在2024年4月22日16时前通过信息系统逐项确认提交本单位电子申请书及附件材料,并于4月23日16时前在线提交本单位项目申请清单。

THE END
1.如何有效学习算法?算法学习学习算法需要系统性的方法和实践,以下是一些有效的学习步骤和资源建议 基础知识学习: 数学基础:掌握离散数学、概率论、统计学等基础知识 编程基础:熟练掌握至少一种编程语言,如Python、C++、Java等 数据结构与算法基础: 数据结构:学习数组、链表、栈、队列、树、图等数据结构 https://blog.csdn.net/qq_49548132/article/details/140109291
2.9种常见的Python算法,学python有前景吗如果一个解决方案被证明不是一个解时,回溯算法会通过在上一步进行一些更改来丢弃该解决方案,即“回溯”并尝试其他解决方案。以上只是Python中可能存在的算法的一部分。实际上,Python可以用来实现任何类型的算法。学python有前景吗 Python编程语言的潜力还是很大的,Python相对好入门一些,也已经成为数据科学、机器学习、https://baijiahao.baidu.com/s?id=1778564523255716508&wfr=spider&for=pc
3.腾讯Offer已拿,这99道算法高频面试题别漏了,80%都败在算法上我自从2015年担任算法组leader,作为面试官面试了不少同学。前前后后面试了超过200名同学,其中有不少入职的同学后来发展都不错,也坚定了自己对于选人标准的自信心。 今年2020年找工作尤其艰难,我把这些年作为面试官一些重要的面试题整理出来,一共80道,希望能够帮助到大家。 https://maimai.cn/article/detail?fid=1699482551&efid=WqEcULyCOsAoPWgBSGGaFg
4.2019届毕业设计(论文)阶段性汇报近年来,计算机视觉和多尺度快速数值方法成为了研究者关注比较多的领域。毕业设计Gamblet方法在图像与数据分割中的应用包含两个方向,其中一个是使用多尺度快速算法求解在图像分割中的特征根问题,另一个是通过Optimal Recovery的方法得到合适的non-parametric kernel并使用这个kernel在高斯回归中,如此来进行图像分割或者数据分https://zhiyuan.sjtu.edu.cn/html/zhiyuan/announcement_view.php?id=3366
5.太全了!自学机器学习算法学习路线图,有配套视频+实战项目,完全自学机器学习需要学习以下几个主要方面的内容: 一、数学基础线性代数: 【1】理解向量、矩阵的基本运算,如加法、减法、乘法等。 【2】掌握矩阵的特征值与特征向量的概念及计算方法,这在主成分分析等算法中非常关键。 【3】熟悉线性方程组的求解,对于理解线性回归等算法的原理有重要作用。 https://www.bilibili.com/opus/968422981073108994
6.学习,是治愈焦虑的良药只有不断学习、奔跑、更新自己的知识体系,外界发生的变化才不足以影响我们。 相反,如果我们在焦虑的时期选择躺平、摆烂,却不去学习,还抱怨不休,那么我们就会陷入双重困境,无法自拔。 二、建立一套有意识的学习算法 1.人的学习风格天然存在差异 我曾采访过很多人,包括小朋友,发现每个人的学习方法都不一样。在课堂上https://36kr.com/p/2375197738412036
7.万文长字总结“类别增量学习”的前世今生开源工具包三、Continual Learning 有哪些场景? 场景一:Task-IL 任务增量学习,是最简单的Continual Learning的场景。在这种场景下,无论是训练阶段还是测试阶段,模型都被告知了当前的任务ID。 这种特性导致了一些task specific component的方法出现,如packNet[3]提前为每个任务确定卷积的filter的掩码图。再如HAT会动态的根据任务为https://www.thepaper.cn/newsDetail_forward_17451573
8.人工智能快速发展趋势下,中国该如何应对?1、AI芯片针对机器学习算法设计开发,广泛应用于云、边、端各类场景 AI芯片(AI Chip)是一种专门用于处理人工智能相关的计算任务的芯片。它的架构是专门为人工智能算法和应用进行优化的,能够高效地处理大量结构化和非结构化数据。AI芯片能够高效地支持视觉、语音、自然语言处理等智能处理任务。目前,AI芯片主要分为GPU、https://developer.aliyun.com/article/1179745
9.宽度学习(一):宽度学习体系:有效和高效的无需深度架构的增量学习深度学习: 1,时间长:由于涉及到大量的超参数和复杂的结构,大多数神经网络的训练过程非常耗时。 2,重新训练:如果要更改神经网络的结构,或者增加样本,深度学习系统将遇到一个完整的重新训练过程。 宽度学习: 1,消除了训练过程长的缺点,并且提供了很好的泛化能力。 https://cloud.tencent.com/developer/article/2088810
10.关于人工智能的学习经验总结上面讲的是从实用的角度出发,就是我开始一个项目,从项目中学习新知识,但是能出发的前提是有了一个基本的知识框架和基础了。 这个基本的知识应该如何学习呢?或者说跟着课程学习的时候应该如何学习呢? 这里记录一个在课程中学习到的一个高效的学习方法, 称之为MAS方法。 https://www.51cto.com/article/703854.html
11.AI深度强化学习落地方法七步曲2——状态空间篇回报函数篇鉴于强化学习算法对优秀reward函数设计的依赖,学术界提出了很多方法改善这一状况。比如逆向强化学习,利用expert demonstration(专家示范)学习到reward函数,再用这个reward函数训练RL策略。此外,还有一大堆模仿学习的方法,干脆抛开reward直接拟合专家策略。以上方法的前提是要有专家数据,不具备普适性,这里就不多说了。 https://www.shangyexinzhi.com/article/4228946.html
12.力扣(LeetCode)全球极客挚爱的技术成长平台海量技术面试题库,拥有算法、数据结构、系统设计等 1000+题目,帮助你高效提升编程技能,轻松拿下世界 IT 名企 Dream Offer。https://leetcode.cn/
13.精神病学研究中如何进行中小型数据的深度学习鉴于机器学习(尤其是深度学习)的现代算法和方法在其他学科中的出色预测性能,它们为解决这些问题提供了新希望。深度学习算法的优势在于它们可以实现非常复杂的算法,并且原则上可以高效地执行任意预测结果的映射。但是,这种实现是有代价的,需要大量的训练(和测试)样本来推断(有时超过数百万个)模型参数。这似乎与迄今为止在https://www.360doc.cn/mip/955038026.html
14.极客大学·算法训练营从训练营中最大的收获不仅是算法知识,更重要的是一些学习方法和经验 算法训练营即将开班,VIP 学习资料限时免费领取! 基础篇:如何高效学习数据结构与算法 前Facebook 工程师的“三位一体”高效学习法视频课、三张数据结构与算法知识图谱 训练篇:数据结构与算法进阶题库 讲师亲自整理的推荐题目及解法、算法训练营https://time.geekbang.org/college/algorithm/1000332?utm_source=time_web
15.BAT机器学习面试1000题系列(二)109.准备机器学习面试应该了解哪些理论知识? 知乎解答 110.标准化与归一化的区别? 简单来说,标准化是依照特征矩阵的列处理数据,其通过求z-score的方法,将样本的特征值转换到同一量纲下。归一化是依照特征矩阵的行处理数据,其目的在于样本向量在点乘运算或其他核函数计算相似性时,拥有统一的标准,也就是说都转化为“https://www.jianshu.com/p/4a7f7127eef1