基金委发布下一代人工智能方法重大研究计划项目指南科技动态中国河南濮阳市科学技术局

关于发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南的通告

国科金发计〔2023〕12号

国家自然科学基金委员会现发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南,请申请人及依托单位按项目指南中所述的要求和注意事项申请。

国家自然科学基金委员会

2023年3月31日??

可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南

可解释、可通用的下一代人工智能方法重大研究计划面向人工智能发展国家重大战略需求,以人工智能的基础科学问题为核心,发展人工智能新方法体系,促进我国人工智能基础研究和人才培养,支撑我国在新一轮国际科技竞争中的主导地位。

一、科学目标

本重大研究计划面向以深度学习为代表的人工智能方法鲁棒性差、可解释性差、对数据的依赖性强等基础科学问题,挖掘机器学习的基本原理,发展可解释、可通用的下一代人工智能方法,并推动人工智能方法在科学领域的创新应用。

二、核心科学问题

本重大研究计划针对可解释、可通用的下一代人工智能方法的基础科学问题,围绕以下三个核心科学问题开展研究。

(一)深度学习的基本原理。

深入挖掘深度学习模型对超参数的依赖关系,理解深度学习背后的工作原理,建立深度学习方法的逼近理论、泛化误差分析理论和优化算法的收敛性理论。

(二)可解释、可通用的下一代人工智能方法。

通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据的人工智能新方法。开发下一代人工智能方法需要的数据库和模型训练平台,完善下一代人工智能方法驱动的基础设施。

(三)面向科学领域的下一代人工智能方法的应用。

发展新物理模型和算法,建设开源科学数据库、知识库、物理模型库和算法库,推动人工智能新方法在解决科学领域复杂问题上的示范性应用。

三、2023年度资助研究方向

(一)培育项目。

围绕上述科学问题,以总体科学目标为牵引,拟以培育项目的方式资助探索性强、选题新颖的申请项目,研究方向如下:

1.深度学习的表示理论和泛化理论

研究卷积神经网络(以及其它带对称性的网络)、图神经网络、transformer网络、循环神经网络、低精度神经网络、动态神经网络、生成扩散模型等模型的泛化误差分析理论、鲁棒性和稳定性理论,并在实际数据集上进行检验;研究无监督表示学习、预训练-微调范式等方法的理论基础,发展新的泛化分析方法,指导深度学习模型和算法设计。

2.深度学习的训练方法

3.微分方程与机器学习

研究求解微分方程正反问题及解算子逼近的概率机器学习方法;基于生成式扩散概率模型的物理场生成、模拟与补全框架;基于微分方程设计新的机器学习模型,设计和分析网络结构、加速模型的推理、分析神经网络的训练过程。

面向具有实际应用价值的反问题,研究机器学习求解微分方程的鲁棒算法;研究传统微分方程算法和机器学习方法的有效结合方法;研究高维微分方程的正则性理论与算法;研究微分方程解算子的逼近方法(如通过机器学习方法获得动理学方程、弹性力学方程、流体力学方程、Maxwell方程以及其它常用微分方程的解算子);融合机器学习方法处理科学计算的基础问题(求解线性方程组、特征值问题等)。

4.隐私保护的机器学习方法

针对主流机器学习问题,结合安全多方计算、全同态加密、零知识证明等方法构建具备实用性的可信机器学习环境。发展隐私保护协同训练和预测方法,发展加密和隐私计算环境的特征聚类、查询和多模型汇聚方法,发展加密跨域迁移学习方法,发展面向对抗样本、后门等分析、攻击、防御和修复方法,研究机器学习框架对模型干扰、破坏和控制方法,发展可控精度的隐私计算方法。

5.图神经网络的新方法

利用调和分析、粒子方程等数学理论解决深度图网络的过度光滑、过度挤压等问题,针对多智能体网络协同控制、药物设计等重要应用场景设计有效的、具有可解释性的图表示学习方法。

6.脑科学启发的新一代人工智能方法

发展对大脑信息整合与编码的定量数学刻画和计算方法,设计新一代脑启发的深度神经网络和循环神经网络,提高传统神经网络的表现性能;建立具有树突几何结构和计算功能的人工神经元数学模型,并用于发展包含生物神经元树突计算的深度神经网络和循环神经网络,提高传统神经网络的表现性能;发展包含多种生物神经元生理特征和生物神经元网络结构特点的人工神经网络及其训练算法,解决图像识别、图像恢复、医学图像重构、地震波检测等应用问题。

7.数据驱动与知识驱动融合的人工智能方法

建立数据驱动的机器学习与知识驱动的符号计算相融合的新型人工智能理论和方法,突破神经网络模型不可解释的瓶颈;研究知识表示与推理框架、大规模隐式表达的知识获取、多源异构知识融合、知识融入的预训练模型、知识数据双驱动的决策推理等,解决不同场景的应用问题。

8.生物医药领域的人工智能方法

发展自动化程度高的先导化合物优化方法,建立生物分子序列的深度生成模型,准确、高效生成满足特定条件(空间结构、功能、物化性质、蛋白环境等)的分子序列;发展蛋白质特征学习的人工智能新方法,用于蛋白质功能、结构、氨基酸突变后亲和力与功能改变等预测以及蛋白质与生物分子(蛋白、肽、RNA、配体等)相互作用预测;针对免疫性疾病等临床表现差异大、预后差等问题,发展序列、结构等抗体多模态数据融合和预测的人工智能模型,用于免疫性疾病的早期诊断和临床分型等。

9.科学计算领域的人工智能方法

针对电子多体问题,建立薛定谔方程数值计算、第一性原理计算、增强采样、自由能计算、粗粒化分子动力学等的人工智能方法,探索人工智能方法在电池、电催化、合金、光伏等体系研究中的应用。

针对典型的物理、化学、材料、生物、燃烧等领域的跨尺度问题和动力学问题,通过融合物理模型与人工智能方法,探索复杂体系变量隐含物理关系的挖掘方法,建立构效关系的数学表达,构建具有通用性的跨尺度人工智能辅助计算理论和方法,解决典型复杂多尺度计算问题。

10.人工智能驱动的下一代微观科学计算平台

发展基于人工智能的高精度、高效率的第一性原理方法;面向物理、化学、材料、生物等领域的实际复杂问题,建立多尺度模型,实现高精度、大尺度和高效率的分子动力学模拟方法;探索建立人工智能与科学计算双驱动的“软-硬件协同优化”方法和科学计算专用平台。

(二)重点支持项目。

围绕核心科学问题,以总体科学目标为牵引,拟以重点支持项目的方式资助前期研究成果积累较好、对总体科学目标在理论和关键技术上能发挥推动作用、具备产学研用基础的申请项目,研究方向如下:

1.经典数值方法与人工智能融合的微分方程数值方法

设计融合经典方法和人工智能方法优势的新型微分方程数值方法。针对经典数值方法处理复杂区域的困难和人工智能方法效果的不确定性、误差的不可控性,发展兼具稳定收敛阶和简便性的新型算法;针对弹性力学、流体力学等微分方程,探索其解的复杂度与逼近函数表达能力之间的定量关系;开发针对三维含时问题的高效并行算法,并应用到多孔介质流等问题;发展求解微分方程反问题的新算法并用于求解实际问题。

2.复杂离散优化的人工智能求解器

面向混合整数优化、组合优化等离散优化问题,建立人工智能和领域知识结合的可通用的求解器框架;建立高精度求解方法和复杂约束问题的可控近似求解方法;发展超大规模并行求解方法和基于新型计算架构的加速方法;在复杂、高效软件设计等场景开展可靠性验证。

3.开放环境下多智能体协作的智能感知理论与方法

针对多模态信息融合中由于数据视角、维度、密度、采集和标注难易程度不同而造成的融合难题,研究基于深度学习的融合模型,实现模态一致性并减少融合过程中信息损失;研究轻量级的模态间在线时空对齐方法;研究能容忍模态间非对齐状态下的融合方法;研究用易采集、易标注模态数据引导的难采集、难标注模态数据的预训练与微调方法;研究大规模多任务、多模态学习的预训练方法,实现少样本/零样本迁移。

4.可通用的专业领域人机交互方法

针对多变输入信号,建立自动化多语种语言、图像、视频等多模态数据生成模型,发展可解释的多轮交互决策方法;建立机器学习和知识搜索的有效结合方法;探索新方法在不同专业领域场景中的应用。

5.下一代多模态数据编程框架

6.支持下一代人工智能的开放型高质量科学数据库

研究跨领域、多模态科学数据的主动发现、统一存储和统一管理方法。研究基于主动学习的科学数据、科技文献知识抽取与融合方法。研究跨学科、多尺度科学数据的知识对象标识化、语义化构建方法。研究融合领域知识的多模态预训练语言模型,开发通用新型数据挖掘方法。形成具有一定国际影响力的覆盖生命、化学、材料、遥感、空间科学等领域的高质量、通用型科学数据库,为人工智能驱动的科学研究新范式提供基础科学数据资源服务。

7.高精度、可解释的谱学和影像数据分析方法

发展光谱、质谱和各类影像数据处理的人工智能方法。建立融合模拟与实验数据的可解释“谱-构-效”模型,开发人工智能驱动的光谱实时解读与反演软件;基于AlphaFold等蛋白结构预测方法,建立高精度冷冻电镜蛋白结构反演算法等。

8.高精度、可解释的生物大分子设计平台

四、项目遴选的基本原则

(一)紧密围绕核心科学问题,鼓励基础性和交叉性的前沿探索,优先支持原创性研究。

(二)优先支持面向发展下一代人工智能新方法或能推动人工智能新方法在科学领域应用的研究项目。

(三)重点支持项目应具有良好的研究基础和前期积累,对总体科学目标有直接贡献与支撑。

五、2023年度资助计划

2023年度拟资助培育项目25~30项,直接费用资助强度约为80万元/项,资助期限为3年,培育项目申请书中研究期限应填写“2024年1月1日—2026年12月31日”;拟资助重点支持项目6~8项,直接费用资助强度约为300万元/项,资助期限为4年,重点支持项目申请书中研究期限应填写“2024年1月1日—2027年12月31日”。

六、申请要求

(一)申请条件。

本重大研究计划项目申请人应当具备以下条件:

1.具有承担基础研究课题的经历;

2.具有高级专业技术职务(职称)。

在站博士后研究人员、正在攻读研究生学位以及无工作单位或者所在单位不是依托单位的人员不得作为申请人进行申请。

(二)限项申请规定。

(三)申请注意事项。

1.本重大研究计划项目实行无纸化申请。申请书提交日期为2023年5月8日—5月15日16时。

2.项目申请书采用在线方式撰写。对申请人具体要求如下:

(1)申请人应当按照科学基金网络信息系统中重大研究计划项目的填报说明与撰写提纲要求在线填写和提交电子申请书及附件材料。

(3)申请书中的资助类别选择“重大研究计划”,亚类说明选择“培育项目”或“重点支持项目”,附注说明选择“可解释、可通用的下一代人工智能方法”,受理代码选择T01,根据申请的具体研究内容选择不超过5个申请代码。

培育项目和重点支持项目的合作研究单位不得超过2个。

(4)申请人在“立项依据与研究内容”部分,应当首先说明申请符合本项目指南中的资助研究方向,以及对解决本重大研究计划核心科学问题、实现本重大研究计划总体科学目标的贡献。

3.依托单位应当按照要求完成依托单位承诺、组织申请以及审核申请材料等工作。在2023年5月15日16时前通过信息系统逐项确认提交本单位电子申请书及附件材料,并于5月16日16时前在线提交本单位项目申请清单。

THE END
1.近万字总结了12个令人惊艳的神经网络可视化工具!可视化神经元激活:通过可视化神经元的激活情况,可以观察神经网络在不同层次上对输入数据进行特征提取的过程。一种常见的方法是使用预训练模型,输入一张图像,然后可视化中间层的神经元激活图,从而了解网络对不同特征的敏感性。 可视化卷积核:对于卷积神经网络(CNN),可视化卷积核可以帮助我们理解网络是如何学习特定的特征和https://blog.csdn.net/wzk4869/article/details/131315371
2.Flowpoints:根据流程图自动生成网络模型代码的在线工具虽然说现在有了TensorFlow以及Pytorch等各种Python的函数库可以让定义神经网络模型变得简单,但是对于网络结构以及网络层代码不熟悉的人来说,写一行代码百度半天指令也是十分的痛苦。今天给大家推荐一款在线网络结构搭建软件,只需要画好网络流程图即可自动生成网络结构代码。 https://cloud.tencent.com/developer/article/1447829
3.生物信息学第二版三、图论与概率图模型 第二节 概率图模型 一、隐马尔可夫模型 二、贝叶斯网络 三、神经网络 第三节 机器学习算法 一、最大期望算法 二、马尔可夫链蒙特卡罗方法 三、动态规划 四、遗传算法 习题 历史与人物 贝叶斯之谜 第15 章 生物信息学计算机基础 第一节 Unix/Linux 操作系统 一、Unix/Linux 操作系统及其结http://ibi.zju.edu.cn/bioinplant/courses/bioinformatics2/mulu.html
4.Let'sEnhanceLet’s Enhance 是一个由人工智能驱动的在线AI图片放大工具,可以在不降低质量的情况下改善图像和缩放图像。该工具使用了机器学习的超分辨率技术,在大量真实照片基础上训练的神经网络,依靠其对现实世界中存在的典型物体和纹理的了解,学习恢复细节并保持清晰的线条和轮廓。 https://ai-bot.cn/sites/2333.html
5.2021中国图象图形学学会青年科学家会议通知及日程安排(线上)报告题目:深度神经网络的压缩与加速研究 报告简介:深度神经网络在图像理解、语音识别、自然语言处理等人工智能应用领域取得了令人瞩目的成就,成为人工智能研究的热点之一。然而,随着网络性能的不断提高,网络的深度和广度也在不断增加,这就大大增加了网络的参数和计算复杂度。如何压缩和加速这些大的神经网络模型成为学术界https://www.csig.org.cn/22/202112/49830.html
6.长沙市就业与社保数据服务中心:长沙市“智慧人社”项目(一期)采购构建人社领域知识图谱,采用实体识别、语义计算、多轮训练引擎,以BERT句向量模型为基础,结合长短记忆神经网络(LSTM)、卷积神经网络(CNN)、循环神经网络(RNN)、层次聚类算法等核心组件,实现反问引导、多轮对话、上下文关联、增量学习等,准确理解用户提问意图,根据用户画像和提问意图精准推送相关政策和经办服务流程知识。长沙https://www.bidcenter.com.cn/newscontent-205864182-1.html
7.照片在线识人在线照片识别人物名人识别(Celebrity Recognition)利用深度神经网络模型对图片内容进行检测,准确识别图像中包含的影视明星及网红人物。 立即使用 [免费体验中心]免费领取体验产品,怎么识别图片中的文字字体_识图搜索在线照片识别_图转文字 建议搭配:对象存储服务OBS图转文字 - 快递单自动填写 图转文字 - 快递单自动填写 自动填写快递https://www.huaweicloud.com/theme/466031-1-Z
8.7个AI图像生成器使用,在线生成免费体验Artisto的核心技术是基于深度学习和神经网络,通过训练模型来识别和模拟不同艺术风格的特征,从而实现图像的转化。这使得Artisto能够生成具有艺术感和创造力的图像,为用户带来全新的视觉体验。 通过这7个AI图像生成器,我们可以轻松地探索美的未知领域,创造出令人惊叹的艺术作品。无论你是艺术爱好者,还是创意工作者,这些AI图https://pixso.cn/designskills/7-ai-image-generators/
9.2024年9个图片无损放大软件及在线放大工具推荐(免费/付费来自GitHub 上的一个著名的开源项目,使用深度卷积神经网络实现图片无损放大。可选择插图或照片, 文件大小 ≤ 5MB,可降噪图像 ≤ 3000x3000px,可放大图像 ≤ 1500x1500px。可以使用第三方开源 Windows 客户端 waifu2x-caffe,支持批量处理,更大的放大倍数和更多的优化选项。如果你对人工智能图片放大感兴趣,可以到Githubhttps://www.extrabux.cn/chs/guide/6381952
10.ER图裕奥在线绘图工具Freedgo提供工程-基本电气图相关的制图工具,可以创建思维导图,云架构图,软件架构图,UML,BPMN,ER模型,流程图,UX设计图,软件流程图。立即开始免费试用!https://www.freedgo.com/diagramdetail/150/1501/d_0_150_1501_192402078381899778_1_0_0.html
11.谷歌发布史上最强人类大脑「地图」,在线可视3D神经元「森林」长久以来,科学家们一直梦想通过绘制完整的大脑神经网络的结构,以了解神经系统是如何工作的。 不知你是否看过高分辨自动重建的3D大脑皮层地图? 近日,谷歌与哈佛大学的Lichtman实验室合作,发布了最新的「H01」数据集,这是一个 1.4 PB 的人类脑组织小样本渲染图。 https://36kr.com/p/1250749963595270.html
12.图片处理工具网址汇总Bigjpg是一个智能无损免费放大图片,图片转换分辨率,把模糊图片变清晰的在线工具。Bigjpg使用的是AI人工智能深度卷积神经网络(CNN)技术,支持放大4K级超高清分辨率(4000×4000)图片,最大可放大32倍。 Bigjpg免费即可每月免费放大20张图片,支持最大上传5MB大小图片,最高可放大4倍。如需更多功能权限需要开通付费版,具体查看https://www.afxw5.com/47176/.html
13.即时工具支持mp3、wav、ogg、ac3、flac、opus、pcm、m4a、aac在线互转 加载失败 图片压缩 不改变图片尺寸减小文件大小,支持调整图片尺寸 加载失败 图片放大 采用waifu2x人工智能深度卷积神经网络实现智能图片无损放大 加载失败 图片编辑 简单的在线图像编辑支持裁切、调色、标注、翻转、旋转、调色、滤镜等操作 https://www.67tool.com/
14.钙网免费logo制作钙网文字头像这款AI人工智能图片放大工具采用神经网络,针对放大图片的线条、颜色、网点等特点,做特殊的算法调整,放大效果非常出色, 色彩保留较好, 图片边缘也不会有毛刺和重影。免费版单个图片最大支持3000x3000px、 5M,日常使用足够! 网址:https://bigjpg.com/ 八、视频转化GIF工具 https://www.wandongli.com/news_detail.html?id=12612
15.如何高效实现精细到“头发丝”的图像分割功能华为开发者联盟随着计算机视觉技术的发展,人们开始利用基于神经网络的分割方法自动分割图像中的元素。最开始往往是利用普通分割将不同区域分开,如分割前景与后景,这种方式的图像分割是根据图像颜色纹理进行区域的划分,主要提取了图片中的低级特征,但分割出来的结果没有语义的标注,并不知道分割的物体是什么,因而造成连在一起的两个物体https://developer.huawei.com/consumer/cn/blog/topic/03737363850870302