像人类一样学习,基于信息瓶颈构建类脑算法新形态信号脉冲电位神经元神经网络

2.新的训练脉冲神经网络的算法——基于信息瓶颈的学习模型,通过模拟人类和生物的学习方式,允许系统在接收实时反馈的同时进行学习,并首次将工作记忆和突触权重联系起来,这可能为下一代人工智能的发展提供启发。

神经元不仅仅是一个开关

1876年,意大利物理学家LuigiGalvani在一次偶然实验中发现,静电可以让死青蛙的腿动起来。这一发现不仅揭示了神经系统对电信号的反应,也无意中探索到了控制青蛙肢体的“开关”。但实际上,生物体中神经元不只是开与关的关系,它们的相互作用要复杂得多。如这涉及膜电位变化、轴突传递等更复杂的过程*。

在SNN中,神经元的激活不是简单的开关行为,而是考虑了神经元膜电位的动态变化以及离子通道的开闭对电位的影响。当膜电位达到某个阈值时,神经元会发射一个脉冲,然后迅速复位到静息电位,这个过程称为“脉冲发放”。

然而,在当下的人工神经元中,决定神经元是否激活的函数,如sigmod或tanh,都是连续可微分的,而脉冲神经网络中的神经元则是阶跃函数,即当膜电位达到阈值时,神经元立即发射脉冲,否则不发放。这个阶跃函数在脉冲发射点是不可微的,因为它的导数在这一点上是未定义的。这使得训练脉冲神经网络变得不那么简单。

而最近的一项研究,来自NeuroAI的研究者不仅提出了一种能够训练脉冲神经网络的算法,还指出该方法在生物学上和大脑的神经活动遵循着同样的约束——即信息瓶颈。

Daruwalla,Kyle,andMikkoLipasti."Informationbottleneck-basedHebbianlearningrulenaturallytiesworkingmemoryandsynapticupdates."FrontiersinComputationalNeuroscience18(2024):1240348.

信息瓶颈——学到真知需要先忘记

信息瓶颈理论起源于信息论中的互信息概念(MutualInformation,衡量了两个随机变量之间的共享信息量),最早由Tishby提出*,后被用于解释人工神经网络的运行机制。现在,我们就用一个关于食品的双关比喻来说明信息瓶颈是如何揭开神经网络中神秘的面纱的。

Tishby,Naftali,andNogaZaslavsky."Deeplearningandtheinformationbottleneckprinciple."2015ieeeinformationtheoryworkshop(itw).IEEE,2015.

假如我们要制作一种特殊的压缩饼干,需要从各种面点中提取出最关键的成分来决定饼干的配方。这就像是我们需要通过一个特殊的“筛选器”来找出最重要的信息,这个过程就是信息瓶颈理论的核心。

在这个理论中,我们把所有面点的成分看作是输入(X),压缩饼干的成分是输出(Y)。首先,我们需要一个“编码器”来处理输入的面点成分,把它转换成一个中间的形式(T),这个过程就像是从各种面点中提取共性,去除不需要的差异,正如物理上的压缩一样。然后,一个“解码器”再把这个中间形式转换成最终的输出,也就是饼干的成分。

在这个过程中,有一个参数β,它决定了我们在筛选信息时,保留多少原始面点的信息。这就像是我们在做题时,决定在草稿纸上保留多少关键步骤一样。

通过这样的模型,研究者可以找到模型中的关键特征,优化决策过程,提升学习效率。在更复杂的多层神经网络中,每一层的处理也可以看作是一个小的信息筛选过程,其信息瓶颈问题可以通过Hilbert-SchmidtIndependenceCriterion(HSIC,如下图)来分析。

图1:(A)顺序错误传播(传统的反向传播)要求层与层之间进行精确的信息逆向传递。(B)并行错误传播则仅依赖局部信息,并结合全局调节信号。这种类型的生物学规则被称为三因素学习规则。

而要构建一个好的人工智能模型,我们需要给每一层网络足够的“临时存储空间”,就像我们做不同数学题时需要草稿纸一样。这可以通过一种叫做“储备池计算”(ReservoirComputing)的方法来实现。

储备池里面充满了随机稀疏连接的人工神经元。它们可以是传统的连续可微的,也可以是脉冲式的。而这个储备池中有多少个人工神经元,则可视为工作记忆的大小。我们通过调整这些神经元的连接强度,改善模型的学习效果。由此,一个生物学上符合类脑的脉冲神经网络如图2所示,而其中的学习规则是局部基于赫布法则和信息瓶颈来设置的。

图2:整体网络架构如上图所示。每个层都配有一个辅助的储备网络。突触更新参数β受到一个层级的错误信号ξ的调节,这个错误信号是从储备网络中获取的。

我们再回到压缩饼干的比喻,假设我们有一个机器,它的任务是区分不同类型的压缩饼干。每种饼干都由不同比例的成分(如碳水化合物、蛋白质等)组成。我们注意到,某些成分经常会一起出现,比如碳水化合物和蛋白质。基于信息瓶颈原理,如果两种成分经常一起出现,我们就可以用更少的信息来记录它们。

而前面提到的“储备池”就像是我们在决定成分比例时用的草稿纸,帮助我们记录和计算信息。通过这样的学习和调整,我们的模型学会了一种识别压缩饼干的规则,多个规则组合后,就形成了识别压缩饼干的模型。

有待提升的学习规则

信息瓶颈的理念在用于图像分类的小数据集Minst已经展示出其效力,达到了91%的准确度,而在包含更多图片和类型的大数据CIFAR-10上,该模型也取得了大约61%的准确率,如图3所示。尽管与传统方法存在差异,但这一成果验证了信息瓶颈原则在处理复杂数据中的应用潜力。

图3:在MNIST和CIFAR-10数据集上,研究者对反向传播和信息瓶颈方法进行了多次测试,并计算了平均测试准确度。MNIST网络是一个具有128和64隐藏神经元的全连接感知机。CIFAR-10网络是一个具有128和256特征的卷积,之后是一个单一的完全连接的输出层。

工作记忆是我们认知系统中至关重要的一部分,它使我们能在回忆存储的知识和经验的同时,继续进行其他任务。在实验中,当模型的工作记忆容量从最初的仅能处理2幅图片信息增加到能处理32幅图片时,模型的预测准确度有所提升,且学习率也有提升——即所需的训练轮次减少。然而,记忆容量的增长和性能提升之间存在对数关系,暗示着收益递减的效应。这一现象为工作记忆的容量与学习效率之间的关系提供了实证支持。

图4:CIFAR-10数据集上,使用信息瓶颈的规则时,不同的有效批次大小时模型再不同训练批次的准确度。

虽然相比传统的反向传播,基于信息瓶颈的模型在准确度上仍有差距,但这种模型能够让学习系统实时接收反馈,更贴近生物学上的学习机制。在我们的大脑中,神经元间的连接一直在变化和调整,这并不是说你可以暂停一切,调整,然后继续做你自己。

反向传播的训练和实际应用是分开的,仿佛是学生在一个学期内集中学习,然后在考试中检验所学,而在学习阶段,我们无法对它的水平进行实时判断。而基于信息瓶颈的新模型则类似于人类的学习方式,就像小孩在看到一个新图像时询问父母这是什么,即使父母未能回答,孩子也能依据以往的经验和反馈进行推断。这种‘即插即用’的过程,更适应生物通过自然选择的方式,对于需要快速反应的任务尤其有效。

尽管还没有证据说明类似图2的网络结构在脑中真实存在,但该研究提出的基于信息瓶颈和局部可塑性(赫布法则)的模型,已被证明可以在复杂的大数据上进行学习,以及在执行简单非线性函数的分类任务上达到近乎完美的准确性。由此,可说明该模型提供了一种新的,不依赖反向传播的学习方法,并首次将工作记忆和突触权重联系起来,这可能为下一代人工智能的发展提供启发。

THE END
1.人工智能深入了解神经网络 通过Frank La La|2019 年 2 月 神经网络是很多高级的人工智能 (AI) 解决方案的基本元素。但是,很少人取消 derstand 这一概念的核心数学或结构化基础。虽然初始研究神经网络返回日期数十年来,它不是直到最近的计算能力和训练数据集的大小进行它们实际供常规使用。 https://docs.microsoft.com/zh-cn/archive/msdn-magazine/2019/february/artificially-intelligent-a-closer-look-at-neural-networks
2.(图解)类神经网络的复兴:深度学习简史腾讯云开发者社区然而若采用仅有两层的神经网络,不如使用其他理论更完备也更好实践、同样只有两层的「浅层」机器学习模型。因此在1990年代,支持矢量机(Support Vector Machine)等「浅层机器学习模型」成为主流技术,此为机器学习的第二波浪潮。 接下来,让我们来继续谈谈类神经网络是如何再度复甦。https://cloud.tencent.com/developer/article/1080858
3.在AI智能中有几种重要的神经网络类型?6种重要的神经网络类型分享!这将我们带到了接下来的两类神经网络:卷积神经网络和循环神经网络。 2. 卷积神经网络(CNN) 在CNN 流行之前,人们用于图像分类的算法有很多。人们过去常常从图像中创建特征,然后将这些特征输入到一些分类算法中,例如 SVM。一些算法也使用图像的像素级值作为特征向量。举个例子,您可以训练一个具有 784 个特征的 SVM,https://m.w3cschool.cn/article/95743536.html
4.什么是神经网络?神经网络的类型Cloudflare不过,它们大致可以分为以下几类: 浅层神经网络通常只有一个隐藏层 深度神经网络有多个隐藏层 与深度神经网络相比,浅层神经网络速度更快,所需的处理能力更低,但无法像深度神经网络那样执行大量复杂任务。 下面是目前可能使用的神经网络类型的不完整列表: 感知器神经网络是一种简单的浅层网络,有一个输入层和一个输出https://www.cloudflare-cn.com/learning/ai/what-is-neural-network/
5.机器学习19:多类别神经网络MultiClassNeuralNetworks该飞机是波音 747、空客 320、波音 777 还是巴西航空工业公司 190? 这是苹果、熊、糖果、狗还是鸡蛋的图像? 在现实世界中,多分类问题需要从数百万个单独的类中进行选择。例如一个可以识别几乎任何东西的图像的多类分类模型。 目录 1.一对多 2.多类神经网络 https://download.csdn.net/blog/column/8117549/131538081
6.应用各种类型的深度神经网络来解决不同的学习任典型深度神经网络LeNet-5虽然提出的时间比较早,但它是一个非常成功 的神经网络模型,LeNet-5的网络结构如图所示。 1.1 结构:LeNet-5 共包含 8 层 整体上是:输入层>卷积层>池化层+激活函数>卷积层>池化层+激活函数>卷积层>全连接层>输出层 输入层:N 个 32x32 的训练样本 https://blog.51cto.com/u_13229/7691640
7.物理神经网络物理神经网络 编辑 物理神经网络是一种类型的人工神经网络,其中可电调整的材料被用来模拟一个的功能神经突触。“物理”神经网络用于强调对用于模拟神经元的物理硬件的依赖,而不是基于软件的方法来模拟神经网络。更一般而言,该术语适用于其他人工神经网络,其中忆阻器或其他电可调电阻材料用于模拟神经突触。 物理神经网络的https://vibaike.com/111076/
8.两类忆阻神经网络的稳定性分析【摘要】:忆阻神经网络作为类脑研究的重要算法之一,备受国内外众多学者的关注。而稳定性是忆阻神经网络最基本的动力学行为之一,其理论研究涉及到微分方程、Lyapunov稳定性理论、脉冲控制理论、生物科学、计算机科学等学科知识。忆阻神经网络稳定性相关成果已广泛应用于模式识别、语音合成、联想记忆等实际工程。众所周知,含有https://cdmd.cnki.com.cn/Article/CDMD-10635-1021769979.htm
9.类脑智能与脉冲神经网络类脑智能算法主要通过对生物神经系统的模拟,构建更符合生物神经系统原理的人工智能算法及计算框架。近年来,起源于神经科学理论基础的脉冲神经网络(spike neural network, SNNs)已成为类脑计算领域的主流框架之一。然而,目前snn使用的基于反向传播(BP)直接训练的LeakyIntegration‐and‐Fire (LIF)神经元模型大多没有考虑周期https://cst.dhu.edu.cn/2022/0906/c3127a299265/page.htm
10.类脑运算脉冲神经网络(SpikingNeuralNetwork)发展现状类脑运算–脉冲神经网络(Spiking Neural Network)发展现状 前一段时间忙于博士论文的攥写和答辩, 抱歉拖更 继上一章: 类脑运算–脉冲神经网络(Spiking Neural Network)叙述 SNN是第三代人工神经网络(ANN),是一类event驱动的神经形态算法,可能具有广泛的应用领域,并适用于各种极低功耗的神经形态硬件。现阶段SNN 的应https://www.pianshen.com/article/94171855502/
11.类脑计算:从神经网络到真正的人工智能丨CCF中国科学院自动化研究所研究员余山表示,现在的深度学习从广义上来说也是类脑计算,因为它不是基于规则的机器学习系统,而是用神经网络从经验中学习知识。所以类脑计算和现在的深度学习两者是互相借鉴,互相促进的关系。 在类脑这一领域,目前国内机会较多。我国在计算、工程、智能技术方面有比较好的基础,脑科学方面总体和https://www.leiphone.com/category/ai/WOIMqvQZwFvOxFUK.html
12.清华NLP图神经网络GNN论文分门别类,16大应用200+篇论文机器之心本文总结了清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengyan Zhang and Yushi Bai同学对 GNN 相关的综述论文、模型与应用。 [ 导读 ]图神经网络研究成为当前深度学习领域的热点。最近,清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengyan Zhang and Yushi Bai同学对 GNN 相关的综述论文、模型与应用进行了综述,并https://www.jiqizhixin.com/articles/2019-08-12-2
13.智慧法治学术动态(2023年第18期总第42期)2023年5月9日,在《自然·机器智能》第5卷第4期上发表的一项新研究中,荷兰国家数学与计算机科学研究所(CWI)科学家展示了类脑神经元如何与新颖的学习方法相结合,能够大规模训练快速节能的尖峰神经网络。该技术潜在的应用包括可穿戴人工智能(AI)、语音识别、增强现实等诸多领域。(人民日报) https://www.jfdaily.com/sgh/detail?id=1028742
14.PyTorch的nn.Module类的定义和使用介绍python在PyTorch中,nn.Module类是构建神经网络模型的基础类,所有自定义的层、模块或整个神经网络架构都需要继承自这个类,本文介绍PyTorch的nn.Module类的定义和使用介绍,感兴趣的朋友一起看看吧+ 目录 在PyTorch中,nn.Module 类是构建神经网络模型的基础类,所有自定义的层、模块或整个神经网络架构都需要继承自这个类。nn.https://www.jb51.net/python/314596jdu.htm