基金委发布下一代人工智能方法重大研究计划项目指南科技动态中国河南濮阳市科学技术局

关于发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南的通告

国科金发计〔2023〕12号

国家自然科学基金委员会现发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南,请申请人及依托单位按项目指南中所述的要求和注意事项申请。

国家自然科学基金委员会

2023年3月31日??

可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南

可解释、可通用的下一代人工智能方法重大研究计划面向人工智能发展国家重大战略需求,以人工智能的基础科学问题为核心,发展人工智能新方法体系,促进我国人工智能基础研究和人才培养,支撑我国在新一轮国际科技竞争中的主导地位。

一、科学目标

本重大研究计划面向以深度学习为代表的人工智能方法鲁棒性差、可解释性差、对数据的依赖性强等基础科学问题,挖掘机器学习的基本原理,发展可解释、可通用的下一代人工智能方法,并推动人工智能方法在科学领域的创新应用。

二、核心科学问题

本重大研究计划针对可解释、可通用的下一代人工智能方法的基础科学问题,围绕以下三个核心科学问题开展研究。

(一)深度学习的基本原理。

深入挖掘深度学习模型对超参数的依赖关系,理解深度学习背后的工作原理,建立深度学习方法的逼近理论、泛化误差分析理论和优化算法的收敛性理论。

(二)可解释、可通用的下一代人工智能方法。

通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据的人工智能新方法。开发下一代人工智能方法需要的数据库和模型训练平台,完善下一代人工智能方法驱动的基础设施。

(三)面向科学领域的下一代人工智能方法的应用。

发展新物理模型和算法,建设开源科学数据库、知识库、物理模型库和算法库,推动人工智能新方法在解决科学领域复杂问题上的示范性应用。

三、2023年度资助研究方向

(一)培育项目。

围绕上述科学问题,以总体科学目标为牵引,拟以培育项目的方式资助探索性强、选题新颖的申请项目,研究方向如下:

1.深度学习的表示理论和泛化理论

研究卷积神经网络(以及其它带对称性的网络)、图神经网络、transformer网络、循环神经网络、低精度神经网络、动态神经网络、生成扩散模型等模型的泛化误差分析理论、鲁棒性和稳定性理论,并在实际数据集上进行检验;研究无监督表示学习、预训练-微调范式等方法的理论基础,发展新的泛化分析方法,指导深度学习模型和算法设计。

2.深度学习的训练方法

3.微分方程与机器学习

研究求解微分方程正反问题及解算子逼近的概率机器学习方法;基于生成式扩散概率模型的物理场生成、模拟与补全框架;基于微分方程设计新的机器学习模型,设计和分析网络结构、加速模型的推理、分析神经网络的训练过程。

面向具有实际应用价值的反问题,研究机器学习求解微分方程的鲁棒算法;研究传统微分方程算法和机器学习方法的有效结合方法;研究高维微分方程的正则性理论与算法;研究微分方程解算子的逼近方法(如通过机器学习方法获得动理学方程、弹性力学方程、流体力学方程、Maxwell方程以及其它常用微分方程的解算子);融合机器学习方法处理科学计算的基础问题(求解线性方程组、特征值问题等)。

4.隐私保护的机器学习方法

针对主流机器学习问题,结合安全多方计算、全同态加密、零知识证明等方法构建具备实用性的可信机器学习环境。发展隐私保护协同训练和预测方法,发展加密和隐私计算环境的特征聚类、查询和多模型汇聚方法,发展加密跨域迁移学习方法,发展面向对抗样本、后门等分析、攻击、防御和修复方法,研究机器学习框架对模型干扰、破坏和控制方法,发展可控精度的隐私计算方法。

5.图神经网络的新方法

利用调和分析、粒子方程等数学理论解决深度图网络的过度光滑、过度挤压等问题,针对多智能体网络协同控制、药物设计等重要应用场景设计有效的、具有可解释性的图表示学习方法。

6.脑科学启发的新一代人工智能方法

发展对大脑信息整合与编码的定量数学刻画和计算方法,设计新一代脑启发的深度神经网络和循环神经网络,提高传统神经网络的表现性能;建立具有树突几何结构和计算功能的人工神经元数学模型,并用于发展包含生物神经元树突计算的深度神经网络和循环神经网络,提高传统神经网络的表现性能;发展包含多种生物神经元生理特征和生物神经元网络结构特点的人工神经网络及其训练算法,解决图像识别、图像恢复、医学图像重构、地震波检测等应用问题。

7.数据驱动与知识驱动融合的人工智能方法

建立数据驱动的机器学习与知识驱动的符号计算相融合的新型人工智能理论和方法,突破神经网络模型不可解释的瓶颈;研究知识表示与推理框架、大规模隐式表达的知识获取、多源异构知识融合、知识融入的预训练模型、知识数据双驱动的决策推理等,解决不同场景的应用问题。

8.生物医药领域的人工智能方法

发展自动化程度高的先导化合物优化方法,建立生物分子序列的深度生成模型,准确、高效生成满足特定条件(空间结构、功能、物化性质、蛋白环境等)的分子序列;发展蛋白质特征学习的人工智能新方法,用于蛋白质功能、结构、氨基酸突变后亲和力与功能改变等预测以及蛋白质与生物分子(蛋白、肽、RNA、配体等)相互作用预测;针对免疫性疾病等临床表现差异大、预后差等问题,发展序列、结构等抗体多模态数据融合和预测的人工智能模型,用于免疫性疾病的早期诊断和临床分型等。

9.科学计算领域的人工智能方法

针对电子多体问题,建立薛定谔方程数值计算、第一性原理计算、增强采样、自由能计算、粗粒化分子动力学等的人工智能方法,探索人工智能方法在电池、电催化、合金、光伏等体系研究中的应用。

针对典型的物理、化学、材料、生物、燃烧等领域的跨尺度问题和动力学问题,通过融合物理模型与人工智能方法,探索复杂体系变量隐含物理关系的挖掘方法,建立构效关系的数学表达,构建具有通用性的跨尺度人工智能辅助计算理论和方法,解决典型复杂多尺度计算问题。

10.人工智能驱动的下一代微观科学计算平台

发展基于人工智能的高精度、高效率的第一性原理方法;面向物理、化学、材料、生物等领域的实际复杂问题,建立多尺度模型,实现高精度、大尺度和高效率的分子动力学模拟方法;探索建立人工智能与科学计算双驱动的“软-硬件协同优化”方法和科学计算专用平台。

(二)重点支持项目。

围绕核心科学问题,以总体科学目标为牵引,拟以重点支持项目的方式资助前期研究成果积累较好、对总体科学目标在理论和关键技术上能发挥推动作用、具备产学研用基础的申请项目,研究方向如下:

1.经典数值方法与人工智能融合的微分方程数值方法

设计融合经典方法和人工智能方法优势的新型微分方程数值方法。针对经典数值方法处理复杂区域的困难和人工智能方法效果的不确定性、误差的不可控性,发展兼具稳定收敛阶和简便性的新型算法;针对弹性力学、流体力学等微分方程,探索其解的复杂度与逼近函数表达能力之间的定量关系;开发针对三维含时问题的高效并行算法,并应用到多孔介质流等问题;发展求解微分方程反问题的新算法并用于求解实际问题。

2.复杂离散优化的人工智能求解器

面向混合整数优化、组合优化等离散优化问题,建立人工智能和领域知识结合的可通用的求解器框架;建立高精度求解方法和复杂约束问题的可控近似求解方法;发展超大规模并行求解方法和基于新型计算架构的加速方法;在复杂、高效软件设计等场景开展可靠性验证。

3.开放环境下多智能体协作的智能感知理论与方法

针对多模态信息融合中由于数据视角、维度、密度、采集和标注难易程度不同而造成的融合难题,研究基于深度学习的融合模型,实现模态一致性并减少融合过程中信息损失;研究轻量级的模态间在线时空对齐方法;研究能容忍模态间非对齐状态下的融合方法;研究用易采集、易标注模态数据引导的难采集、难标注模态数据的预训练与微调方法;研究大规模多任务、多模态学习的预训练方法,实现少样本/零样本迁移。

4.可通用的专业领域人机交互方法

针对多变输入信号,建立自动化多语种语言、图像、视频等多模态数据生成模型,发展可解释的多轮交互决策方法;建立机器学习和知识搜索的有效结合方法;探索新方法在不同专业领域场景中的应用。

5.下一代多模态数据编程框架

6.支持下一代人工智能的开放型高质量科学数据库

研究跨领域、多模态科学数据的主动发现、统一存储和统一管理方法。研究基于主动学习的科学数据、科技文献知识抽取与融合方法。研究跨学科、多尺度科学数据的知识对象标识化、语义化构建方法。研究融合领域知识的多模态预训练语言模型,开发通用新型数据挖掘方法。形成具有一定国际影响力的覆盖生命、化学、材料、遥感、空间科学等领域的高质量、通用型科学数据库,为人工智能驱动的科学研究新范式提供基础科学数据资源服务。

7.高精度、可解释的谱学和影像数据分析方法

发展光谱、质谱和各类影像数据处理的人工智能方法。建立融合模拟与实验数据的可解释“谱-构-效”模型,开发人工智能驱动的光谱实时解读与反演软件;基于AlphaFold等蛋白结构预测方法,建立高精度冷冻电镜蛋白结构反演算法等。

8.高精度、可解释的生物大分子设计平台

四、项目遴选的基本原则

(一)紧密围绕核心科学问题,鼓励基础性和交叉性的前沿探索,优先支持原创性研究。

(二)优先支持面向发展下一代人工智能新方法或能推动人工智能新方法在科学领域应用的研究项目。

(三)重点支持项目应具有良好的研究基础和前期积累,对总体科学目标有直接贡献与支撑。

五、2023年度资助计划

2023年度拟资助培育项目25~30项,直接费用资助强度约为80万元/项,资助期限为3年,培育项目申请书中研究期限应填写“2024年1月1日—2026年12月31日”;拟资助重点支持项目6~8项,直接费用资助强度约为300万元/项,资助期限为4年,重点支持项目申请书中研究期限应填写“2024年1月1日—2027年12月31日”。

六、申请要求

(一)申请条件。

本重大研究计划项目申请人应当具备以下条件:

1.具有承担基础研究课题的经历;

2.具有高级专业技术职务(职称)。

在站博士后研究人员、正在攻读研究生学位以及无工作单位或者所在单位不是依托单位的人员不得作为申请人进行申请。

(二)限项申请规定。

(三)申请注意事项。

1.本重大研究计划项目实行无纸化申请。申请书提交日期为2023年5月8日—5月15日16时。

2.项目申请书采用在线方式撰写。对申请人具体要求如下:

(1)申请人应当按照科学基金网络信息系统中重大研究计划项目的填报说明与撰写提纲要求在线填写和提交电子申请书及附件材料。

(3)申请书中的资助类别选择“重大研究计划”,亚类说明选择“培育项目”或“重点支持项目”,附注说明选择“可解释、可通用的下一代人工智能方法”,受理代码选择T01,根据申请的具体研究内容选择不超过5个申请代码。

培育项目和重点支持项目的合作研究单位不得超过2个。

(4)申请人在“立项依据与研究内容”部分,应当首先说明申请符合本项目指南中的资助研究方向,以及对解决本重大研究计划核心科学问题、实现本重大研究计划总体科学目标的贡献。

3.依托单位应当按照要求完成依托单位承诺、组织申请以及审核申请材料等工作。在2023年5月15日16时前通过信息系统逐项确认提交本单位电子申请书及附件材料,并于5月16日16时前在线提交本单位项目申请清单。

THE END
1.OpenMMLab通过组合不同模块轻松构建自定义的生成模型 AIGC扩散模型 PlaygroundNEW OpenMMLab 相关应用展示平台 前沿 有趣 应用 Demo社区项目应用 MMCV 面向计算机视觉的基础库 提供通用的 IO 接口 支持图像/视频/光流的处理 CUDA 算子的高质量实现 提供用于 PyTorch 的高层训练接口 https://openmmlab.com/codebase
2.PaddlePaddle/PaddleClas:AtreasurechestforvisualPP-HGNet & PP-HGNetV2 系列模型的精度、速度指标如下表所示,更多关于该系列的模型介绍可以参考:PP-HGNet 系列模型文档、PP-HGNetV2 系列模型文档。 模型Top-1 AccTop-5 Acctime(ms)bs=1time(ms)bs=4time(ms)bs=8FLOPs(G)Params(M)预训练模型下载地址inference模型下载地址 PPHGNet_tiny 0.7983 0.9504 https://openi.pcl.ac.cn/PaddlePaddle/PaddleClas/src/branch/develop/docs/zh_CN/models/ImageNet1k
3.VegaAI创作平台黑马自媒体导航自由上传图片,定制自己的风格模型!用户自主定制模型:基础模型+定制模型“无限套娃” 用户通过上传图片在线训练所生成「用户自主定制模型」与开源&Vega自研的「平台自有基础模型」的组合搭配,可以衍生出无数种不同的玩法。 对于个性化的「用户自主定制模型」,可以进行仓库化管理,即插即用。 https://www.hmwww.cn/site/2065.html
4.AI:ModelScope(一站式开源的模型即服务共享平台)的简介安装导读:ModelScope旨在打造下一代开源的模型即服务共享平台,汇集了行业领先的预训练模型,减少了开发者的重复研发成本。个人认为,相比于AI公司经常卖一款软件产品或者卖一个算法需求,而ModelScope更偏向于某种功能(model端到端)实现,初级AI从业者也能很容易实现大模型,有点低代码的感觉。当前ModelScope的功能,相比于CV、https://blog.51cto.com/yunyaniu/5935335
5.KuAI平台模型在线推理系统的高可用设计(C)容器镜像仓库:主要提供模型训练、模型推理任务等的容器镜像及镜像管理,包括不同硬件平台(CPU/GPU服务器等)上算法模型运行所需的基础算法库、依赖包等软件环境。在(A)模型在线服务设计器中设计具体模型在线推理任务时选择相应的容器镜像即可,无需运维重新搭建运行环境。 https://cloud.tencent.com/developer/news/704682
6.TinyMaix:超轻量级推理框架八、使用Maixhub 在线训练模型# TODO 九、怎样添加新平台的加速代码# TinyMaix 使用基础的点积函数加速卷积运算 你需要在 src 里添加 arch_xxx_yyy.h, 并添上你自己平台的点积加速函数: TM_INLINE void tm_dot_prod(mtype_t* sptr, mtype_t* kptr,uint32_t size, sumtype_t* result); Copy 十、贡http://en.wiki.sipeed.com/news/others/tinymaix_cnx/tinymaix_cnx.html
7.基于Flink的机器学习算法平台Alink(二)推荐算法介绍2)如何训练初始模型? 3)如何进行在线训练和预测? 4)如何对结果进行评估? 1.如何进行特征建模? 上图为脚本Demo,首先对原始数据做标准化操作,然后对这数据链做了一标准化操作,之后通过FeatureHash将它映射到数组中,生成一个Pipeline,Fit将整个数据相进行特征工程训练,训练出模型。 https://developer.aliyun.com/article/781231
8.那些可免费使用的在线大语言模型服务TonyBai我们先来看看一类典型的大语言模型服务平台,它们被称作大语言模型聚合平台,在这类平台上,我们可以使用超过一种的专有模型或开源LLM模型服务。 1.1poe.com poe.com是我日常使用的大语言模型服务的第一选择。它由美版知乎Quora平台开发运营。平台上的人工智能服务由多个不同公司训练的模型提供支持,并针对不同的任务进行https://tonybai.com/2024/05/06/those-free-to-use-online-llm-services
9.模型AI平台,支持sso登录,多租户,大数据平台对接,notebook在线cube studio开源云原生一站式机器学习/深度学习/大模型AI平台,支持sso登录,多租户,大数据平台对接,notebook在线开发,拖拉拽任务流pipeline编排,多机多卡分布式训练,超参搜索,推理服务VGPU,边缘计算,serverless,标注平台,自动化标注,数据集管理,大模型微调,vlhttps://github.com/HutCat/cube-studio
10.算法服务平台算法模型服务平台是一个面向企业用户的数字化服务平台,旨在为用户提供高效、先进的算法模型。它以数据为核心,利用机器学习、深度学习等前沿技术,为用户提供行业定制化的算法模型解决方案。 应用场景 用户情感分析 使用情感分析模型,对文本进行情感分析,用于市场调研,客户服务和社交媒体监测。 https://wakedata.com/wakeAI.html
11.中科星图:AI大模型赋能下游应用,线上星图地球开启百亿数据平台现有遥感样本库在标注上依赖于专业人员的手工标绘,人力和时间成本极高,难以满 足大模型训练所需的大规模、高丰富度、易快速扩充的遥感数据需求,“空天灵眸”大模 型的训练数据集包含了 200 多万幅分辨率为 0.1m 到 30m 的遥感影像,分别来源于中国遥 感卫星地面站、航空遥感飞机等平台,以及高分系列卫星、吉林卫星https://caifuhao.eastmoney.com/news/20230417131115685631600
12.ModelX数据建模平台模型训练平台数据建模平台Model X 数据建模平台,基于高性能计算架构和大数据底层平台构建,打造一站式、高性能的建模平台。将内外部各类数据转化成决策模型,Model X 通过优秀产品交互设计,尽可能地把复杂的机器学习算法封装在底层。功能覆盖算法开发、模型训练评估、建模全流程,通过简单的界面操作就能训练出模型,并应用到商业决策中,降低机器学习的http://www.fibo.cn/Model-X.html
13.可解释可通用的下一代人工智能方法重大研究计划2022年度项目指南通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据的人工智能新方法。开发下一代人工智能方法需要的数据库和模型训练平台,完善下一代人工智能方法驱动的基础设施。 (三)面向科学领域的下一代人工智能方法的应用 发展新物理模型和算法,建设开源科学数据库、知识库、物理模型库和算法库,推动人工https://scit.nju.edu.cn/b2/ac/c10946a570028/page.htm
14.ai写作在线平台gpt在当今数字化时代,人工智能技术越来越成熟,AI写作在线平台也逐渐走进我们的视野。其中,GPT模型是当前最为火热的自然语言处理技术之一。本文将介绍GPT模型及其在AI写作在线平台中的应用。 GPT模型概述 GPT全称为Generative Pre-trained Transformer,是一个由OpenAI提出的预训练模型,采用了Transformer结构。该模型在训练过程中https://tool.a5.cn/article/show/36749.html
15.人脸识别新篇章:深入解析faceapi.js库模型加载时间:首次加载预训练模型时可能会有较长的等待时间,尤其是在网络条件不佳的情况下。 定制化限制:虽然提供了丰富的功能,但对于需要高度定制化的应用场景,可能需要额外的开发工作。 总体而言,face-api.js凭借其跨平台兼容性、易用性和高性能等特点,在人脸识别领域占据了一席之地。尽管存在一些局限性,但其优势https://www.showapi.com/news/article/66bab79f4ddd79f11a086110
16.SwanLabSwanLab面向AI训练过程,为开发者提供了训练可视化、自动日志记录、超参数记录、实验对比、多人协同等一系列专业工具,提高研发团队的模型研发效率,打破沟通壁垒。https://swanlab.cn/
17.2020年最值得收藏的60个AI开源工具语言&开发李冬梅SiamMask 是一款实时在线目标跟踪与目标分割统一框架。技术简单、通用、快速高效。它可以对目标实时跟踪。此款库还包含预训练模型。 项目地址:https://github.com/foolwood/SiamMask DeepCamera 世界首个自动机器学习深度学习边缘 AI 平台 ARM GPU 上的深度学习视频处理监控,用于人脸识别以及更多方法。将数码相机变成人工https://www.infoq.cn/article/2uabiqaxicqifhqikeqw
18.制图机AI绘画和LoRA模型训练平台strangerzonehf训练的生成粘土3D风格图片的LoRA,基于Flux 1 Dev LoRA Flux 1 Dev 电影效果微缩模型Flux Isometric 3D Cinematography strangerzonehf训练的生成电影效果微缩模型LoRA,基于Flux 1 Dev LoRA Flux 1 Dev Flux可爱的卡哇伊3D LoRA Flux Cute 3D Kawaii https://zhituji.cn/
19.王小川开源中文大模型;欧盟通过《AI法案》草案;ChatGPT插件总数达14、云鼎科技:现有算力满足矿山大模型训练需求 财联社6月15日电,云鼎科技在互动平台表示,公司依托山东能源集团AI训练中心,开展基于矿山大模型的智能化场景开发。现有训练设备可提供14PFLOPS FP16算力,满足当前矿山大模型训练需求。随着矿山大模型在电力、新能源等的应用开展,后续可根据需求进行算力扩展。 https://zhidx.com/p/382403.html
20.大模型数据共享训练平台Meta开源的Llama模型目前是业界和学术界最广泛使用的大模型。语言模型版本包含1B、3B、8B、70B和405B,训练数据量超过15.0T tokens。视觉模型包含11B和90B,训练数据量超过60亿图文对。 模型 训练数据 参数量 数据量 发布时间 LLaMA 英文CommonCrawl、C4、Github、Wikipedia、Gutenberg and Books3、ArXiv、Stack Exchangehttps://llama.family/
21.LiblibAI哩布哩布AIAI绘画原创模型分享社区,10万+模型免费下载;原汁原味的webUI、comfyUI,在线AI绘图工具免费使用;还可在线进行模型训练。欢迎每一位创作者加入,共同探索AI绘画https://www.liblib.art/
22.深度学习模型在线训练排序策略离线排序模型华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:深度学习模型 在线训练。https://support.huaweicloud.com/topic/985668-2-S