科普安徽

导读:众所周知,人类大脑活动是复杂而连续的动力学过程,其复杂程度远超当前算力资源所能模拟的上限。大脑约有1000亿个神经元,100万亿个突触,平均突触连接的长度约10-1000微米。假设每1微米连接用1个微分方程近似,初略估算人类大脑约具有1000万亿-10亿亿参数(该参数可能被低估)。

类脑计算的核心在于借鉴生物神经系统的信息处理模式或结构,进而构建相应的计算理论、芯片体系结构以及应用模型与算法,类脑计算被认为是后摩尔时代最为重要的发展方向之一,或有可能成为未来智能计算的突破口。

作者简介:李国齐,中国科学院自动化所研究员,博士生导师,北京智源人工智能研究院青年科学家。李国齐在Nature、NatureCommunications、ProceedingsoftheIEEE、IEEETPAMI等期刊和ICLR、NeurIPS、AAAI、CVPR等会议上发表论文150余篇;出版国内类脑计算领域早期学术专著1部;论文在Google学术上被引用4500余次。2017年入选北京市自然科学基金优秀青年人才,2018年获得中国指挥与控制学会科学技术一等奖,2019年入选北京智源人工智能研究院“智源学者”,2021年获得福建省科技进步二等奖,2021年获得北京市杰出青年基金资助,2022年入选中科院“百人计划”;其参与的类脑芯片理论、架构和工具链的工作曾入选2019年中国科学十大进展和2020年世界人工智能十大进展。

整理:王光华

编辑:李梦佳

01

什么是类脑计算?

类脑计算是近些年来崛起的新兴研究领域,与人工智能、机器学习等领域类似,很难对其进行准确定义,目前业内尚没有普遍认可的类脑计算概念定义。

李国齐指出,类脑计算的描述性定义为“指受人脑信息处理方式启发,以更通用的人工智能和高效智能边缘端/云端为目标构建信息系统的技术总称”。类脑计算希望融合脑科学、计算神经科学、认知科学甚至统计物理等学科的知识来解决现有传统计算技术的一些问题,进而构建更加通用、高效、智能的新颖信息系统。

狭义类脑计算是指神经形态计算,主要是研制神经形态芯片以支持源自计算神经科学的脉冲神经网络(SpikingNeuralNetworks,SNN);广义类脑计算也包括存内计算、忆阻器芯片甚至研制AI芯片以支持传统的人工神经网络(ArtificialNeuralNetworks,ANN)。因此,类脑计算的研究与发展与人工智能一样也需要从模型算法、软件、芯片和数据等各个方向协同展开。

02

类脑计算模型:突破神经科学与AI的鸿沟

当前,神经科学与人工智能之间存在着巨大鸿沟,神经科学侧重于重构大脑内部的精细结构和生理细节,人工智能则侧重于通过对神经结构进行数学抽象以实现计算的高效性。

因此,人工智能和神经科学如何交叉融合成为一个艰巨挑战。类脑计算中,脉冲神经网络兼具了生物合理性和计算高效性,或可以为人工智能提供新范式。简单地,可以认为SNN=ANN+NeuronalDynamics。如何寻找兼具生物合理性与计算高效性的脉冲神经元模型,以及如何建立脉冲神经元模型与AI任务之间的关系是类脑计算领域的核心问题。

当前,SNN普遍采用LIF神经元作为构建神经网络的基础单元。原因在于,LIF神经元是一种典型的综合模型,既具备IF模型的简单易用性,又能像H-H神经元模型那样模拟生物神经元丰富的生理学特性。

03

类脑学习算法

与ANN训练相比,SNN的高效训练面临着诸多问题与挑战,例如脉冲神经元中复杂的时空动力过程、脉冲神经元之间传递的脉冲信息不可导、脉冲退化和训练精度损失等。当前,SNN训练方法主要包括无监督学习、间接有监督学习和直接有监督学习三类。这些训练方法尝试从不同的角度解决上述问题和挑战。

1.基于STDP的无监督学习

如果两个神经元同时激活,则他们与共同的下游神经元之间形成了更加紧密的联系,这样两者为同级神经元,且相互之间具备间接关系。例如,通过STDP规则结合Winner-Take-All(WTA)构成的学习模型是一种简单有效的无监督学习方式。

具体地,在输入层将图片转换为脉冲序列(脉冲发放率正比于像素值),神经元以全连接形式前向连接,接受兴奋性输入,并采用STDP规则更新,并与抑制性神经元后向一对一连接,对其产生侧向抑制(即softWTA),并通过自适应阈值平衡脉冲发放率。

STDP模型通过局部调整规则进行学习,在神经形态芯片上容易进行分布式实现并具备在线学习能力。但是,局部突触可塑性不足以解释突触个体的改变如何协调神经系统的整体目标的实现。同时,李国齐也指出,这种无监督学习训练方法存在着难以获得高性能网络,无法在大规模深度神经网络中使用等问题。

2.基于ANN转SNN的间接有监督学习

ANN-convertedSNN方法是指训练一个ANN模型,而后将学习完成后的ANN权重迁移到具有相同结构的SNN中。其基本思想是,利用SNN平均脉冲发放率来近似表示ANN中的ReLU激活值。

因此,ANN-convertedSNN方法存在着模型精度与模型仿真步长T之间的tradeoff问题。该方法利用有监督信号在原始ANN模型中进行梯度反向传播训练,然后将其转换成SNN模型,因此是一种间接有监督学习。

3.SNN直接有监督学习的发展

为避免上述两种训练方法的局限性,解决SNN无法有效训练的难题,李国齐及其团队较早的提出STBP(Spatio-TemporalBackpropagation)等SNN直接训练方法。

STBP虽然解决了SNN网络中进行反向传播训练的梯度替代问题,但其仍然只能训练不超过10层的小规模网络。其中主要问题在于,一旦网络加深,先比较于ANN,脉冲神经元的二进制激活方式及其复杂的时空动态更容易带来网络的梯度消失或爆炸问题。

通过进一步分析SNN中的时空动态特性可知,建立神经元膜电势和阈值之间的平衡,以获得一个合适的网络脉冲发放率对网络的性能至关重要。过低的发放率可能会导致有效信息不足,而过高的发放率则会降低SNN网络对输入的区分度。

因此,李国齐团队进一步提出了结合脉冲神经元阈值的BN算法,即Threshold-dependentBN方法(TDBN),缓解了制约SNN的规模瓶颈问题,首次将SNN的网络规模提升至50层,在ImageNet等大规模数据集上取得具有竞争性的性能,并证明了该方法可缓解深度SNN的梯度消失与爆炸问题。

尽管TDBN提升了SNN的规模,但相对于传统ANN中动辄数百层的深度网络,性能仍然捉襟见肘,不足以在大规模数据集上与ANN进行竞争。为了进一步提升SNN的网络表达能力,扩大网络规模从而提升任务性能,借鉴经典的ResNet结构是似乎一种可行的方法。

但是,直接复制ResNet结构到SNN中(VanillaRes-SNN)存在着脉冲退化问题,即网络越深,精度越低。因此,李国齐团队提出了一种将LIF神经元放置在残差块中,并在不同层神经元的膜电势之间建立shortcut的新颖Ms-Rse-SNN结构。并利用dynamicalisometry理论证明了所提出的结构不存在脉冲退化问题。在相对广泛的范围内解决了大规模SNN直接训练问题(482层CIFAR-10,104层ImageNet),后者取得Top-176%分类准确率的SOTA结果。

此外,根据SNN处理数据的不同,采用data-dependent的处理方式,可以为直接训练SNN在一些任务中带来额外的性能增益。例如,在神经形态视觉任务中,事件流数据往往具有稀疏、不均匀特性。

04

类脑计算软件

类脑计算软件框架与工具通常包括神经形态芯片工具链、神经系统仿真模拟和SNN学习框架等三个方面的内容,具体可参考清华大学张悠慧教授在IEEETransactionsonHighPerformanceComputing的综述论文观点。

神经形态芯片工具链目前尚处于早期阶段,存在软件与硬件紧密耦合,通用性、自动化程度不高,使用便捷性差等许多问题。神经系统软件仿真框架能够详细模拟生物神经网络,但要求用户具有一定的计算神经科学基础。

05

类脑计算芯片

从功能角度看,类脑芯片主要分为四类:

主要支持人工神经网络(TPU、寒武纪、华为昇腾等)的深度学习加速器;

主要支持脉冲神经网络(TrueNorth、Loihi、达尔文等芯片)的神经形态芯片;

支持人工/脉冲神经网络的异构融合芯片(Tianjinc芯片);

以及支持神经元编程的脑仿真模拟芯片(SpiNNaker、ROLLS、Loihi等芯片)和具备低时延、高动态的神经形态相机为代表的感知芯片。

类脑芯片的体系架构包括主流深度学习加速器采用的存算分离架构,主流众核去中心化架构芯片的近存计算架构,以及存内计算芯片、忆阻器芯片等所采用的存算一体架构。从芯片设计的角度来看,采用路由器连接的多核架构的芯片的可扩展性更好,多个功能核独立工作,核间周期性地同步和共享数据。因此可支持的网络规模更大,应用范围更广的SNN。

采用单纯数字信号的小规模单核芯片可以采用存内计算进行矩阵向量乘,具备同步、异步设计流程,往往具备较高的能效和较低的静态功耗,且更便于技术迁移,但神经元与突触的规模受限。数模混合小规模单核芯片采用数字异步脉冲路由,利用存内数字计算方法进行矩阵向量乘法,采用模拟膜电位进行激活与更新,因此能效最高,但也存在神经元与突触数量少和设计不方便等问题。

06

类脑计算数据

众所周知,深度学习发展四要素为算法、算力、开发工具以及大规模的数据。在深度学习领域,成百上千个开源数据集覆盖分类、检测、跟踪、自然语言等,极大地促进了深度学习的繁荣。

相比之下,类脑数据集十分匮乏,现有的数据集主要包括四类:

第一类是通过转换算法将ANN数据集转变为事件信号数据集,典型数据集包括基于ImageNet转换而来的ES-ImageNet,基于UCF101转化的事件信号数据集ES-UCF101,基于BDD100K转化的事件信号数据集BDD100K-DVS等;

第二类是利用神经形态相机DVS将图像或视频数据库转化为事件数据集,比如N-MNIST、CIFA10-DVS等数据集;

07

类脑系统发展趋势

最后,李国齐结合自己的思考总结了类脑计算的未来发展趋势,并对类脑系统框架进行了总结。

在模型算法方面,不仅可以通过增加模型参数、网络深度或宽度使得SNN模型变大变强,更重要的提供向内增加神经元复杂程度的能力支撑,缩减神经科学与人工智能之间存在的鸿沟。因此,构造包含更丰富动力学的神经元模型、神经网络及对应的算法是未来的重要方向。

李国齐认为,类脑系统的总体框架包括类脑的模型、算法、软件以及芯片,并结合丰富类脑数据构造的计算系统,在人工智能领域可以朝着高效云端/边缘端类脑计算系统的构造方向发展,在脑科学领域可利用现有的超算服务器集群进行神经动力学的仿真和模拟,构建更为复杂的脑仿真和神经模拟系统。

THE END
1.神经网络的起源与工作原理神经网络模型-学习(训练)与工作(推理)流程 a. 训练:通过设计合适 AI 模型结构以及损失函数和优化算法,将数据集以 mini-batch (数据集分为多个批次,作用是每次使用少量数据更新模型参数,再用新的数据验证等刚得到模型参数的计算效果)反复进行前向计算并计算损失,反向计算梯度利用优化函数来更新模型,使得损失函数最小https://blog.csdn.net/weixin_53795646/article/details/144411889
2.神经网络入门基础知识腾讯云开发者社区引发了第一波神经网络的热潮,但感知机的致命缺点是:Minsky在1969年证明Perceptron无法解决异或问题。根源在于,二维层面上神经网络是一条直线。无法划分异或的区间。 0=σ(x0w0+x1w1+b)0=x0w0+x1w1+bx1w1=0?x0w0?bx1=?w0w1x0?bw1y=kx+b https://cloud.tencent.com/developer/article/2299888
3.卷积神经网络科普PublicLibraryofBioinformatics卷积神经网络科普 卷积神经网络(Convolutional Neueal Networks,简称CNN)可以说是神经网路模型中的"网红"网络框架,在计算机视觉方面贡献很大。卷积神经网络中的核心基础,涉及卷积层、池化层、全连接层不仅是搭建卷积神经网络的基础,也是我们需要重点掌握和理解的内容。https://www.plob.org/article/28092.html
4.神经网络是什么人工神经网络也简称为神经网络,或称作连接模型,它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。神经网络的研究内容相当广泛,反映了多学科交叉技术领域的特点。不论何种类型的人工神经网络,它们共同的特点是,大规模并行处理,分布式存储,弹性拓扑,高度冗余和非线性运算。https://www.kepuchina.cn/article/articleinfo?business_type=100&ar_id=92929
5.科普:神经网络基本原理图1中的这种“阈值加权和”的神经元模型称为M-P模型 ( McCulloch-Pitts Model ),也称为神经网络的一个处理单元(PE, Processing Element )。 2. 常用激活函数 激活函数的选择是构建神经网络过程中的重要环节,下面简要介绍常用的激活函数。 (1) 线性函数 ( Liner Function ) https://picture.iczhiku.com/weixin/message1586359600270.html
6.1科普:人工神经网络VS生物神经网络易学在线课堂学员 1、科普: 人工神经网络 VS 生物神经网络04:39 学员 2、什么是神经网络 (机器学习)00:00 学员 3、神经网络 : 梯度下降 (Gradient Descent in Neural Nets)04:07 学员 4、科普: 神经网络的黑盒不黑04:55 学员 5、1 why?01:13 学员 6、2 安装 (Windows, Mac, Linux)06:22 学员 7、3 例子102https://bbs.easyaiforum.cn/lesson-2862.html
7.硬核科普:什么是人工神经网络百度百科对人工神经网络的定义 是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为“神经网络”或类神经网络。 如果你一脸蒙蔽,那就对了 懵逼 该看懂的人还是能看懂,看不懂的还是看不懂,对新手及其不友好 https://www.jianshu.com/p/37a7a1305712
8.神经网络学习原理科普视频名师讲堂关注https://tv.sohu.com/v/dXMvMzM1OTQxMTk1LzQzMzM4OTIwNy5zaHRtbA==.html
9.《科普中国直击最前沿》——神经网络创造未来我们脑中的知识可以共享吗?人类将如何在人工智能浪潮中破浪而行?本期节目《科普中国直击最前沿》特邀中关村高端领军人才,“吴文俊人工智能科学技术奖”获得者——雷涛,为您讲述。《神经网络 创造未来》节目于5月19日20:01播出,届时北京广播电视台纪实科教频道、北京时间APP、科普中国APP同步播出上线,敬请关注。https://item.btime.com/44oka4iu12h87q8jjetotcntce5
10.AIGCAIGC-GPT科普(二):神经网络发展历史 这篇文章主要介绍了神经网络的发展历史,包括 1958 年的 MLP、1982 年的 RNN、1998 年的 CNN、2012 年的 AlexNet 和 ResNet、2014 年的 GAN 等深度生成网络,以及 2017 年的 Transformer 等。不同架构各有特点和优势,在不同领域发挥着重要作用。https://juejin.cn/post/7244018340878958650
11.《人工智能核心神经网络青少科普版齐勇刚神经网络青少年读物当当佳倪图书专营店在线销售正版《人工智能核心 神经网络 青少科普版 齐勇刚 神经网络青少年读物 青少年中小学生人工智能培训教材 清华大学出版社》。最新《人工智能核心 神经网络 青少科普版 齐勇刚 神经网络青少年读物 青少年中小学生人工智能培训教材 清华大学出版社》简http://product.dangdang.com/11756083252.html
12.AI科普微视频丨什么是深度神经网络(下)?AI科普微视频丨什么是深度神经网络(下)? 点击蓝字关注我们 人工智能是如何产生的?人工智能的发展为什么充满曲折?为什么说图灵是人工智能之父?为加大AI科普力度,推动文化传播,中国人工智能学会推出了“AI科普微视频”栏目,以每期2~3分钟的视频为钥匙,为您打开人工智能的大门,一览智能科学的独特魅力。https://www.shifair.com/informationDetails/80103.html
13.新科普中科院院士提醒家长:抓住神经网络发育关键期人在出生后,具有不同功能的网络都有一个关键的形成期,例如视觉系统形成的关键期为1—3岁,语言系统则在2—7岁。 人的聪明才智来自先天还是后天?近日,中科院院士、中科院神经科学研究所所长蒲慕明在上海科普大讲坛上抛出了这个问题。在他看来,遗传基因是正常神经网络形成的必要条件,但形成不同神经网络的很多因素来自后https://www.jfdaily.com/wx/detail.do?id=99050
14.中国科普博览机器学习算法的功能可粗略的分为四大类,即分类、聚类、预测和降维,可用的机器学习算法不下数百种,包括回归分析、判别分析、聚类分析、因子分析和主成分分析、贝叶斯分类、决策树、支持向量机、EM、Adaboost、人工神经网络及它们之间的一些集成算法等。其中的回归分析、判别分析、聚类分析等已在统计计算里进行了介绍,神经http://www.kepu.cn/blog/zhangjianzhong/201903/t20190327_475625.html
15.神经网络经典神经网络简要介绍51CTO博客大脑最大的部分是持续工作的,而计算机最大的部分只是被动的数据存储。因此,大脑是平行的,因此运行接近其理论上的最大值,而计算机与此相差几个数量级(表1.1)。此外,计算机是静态的——大脑作为一个生物神经网络,可以在“生命周期”内自我重组,因此能够学习、补偿错误等。 https://blog.51cto.com/u_13046751/6537466
16.“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1前者是组成整个神经网络的权重,后者是用来运行这个神经网络的代码,可以是C或者其他任何编程语言写的。 有了这俩文件,再来一台笔记本,我们就不需任何互联网连接和其他东西就可以与它(大模型)进行交流了,比如让它写首诗,它就开始为你生成文本。 那么接下来的问题就是:参数从哪里来? https://m.thepaper.cn/newsDetail_forward_25414655