NeurIPS2024大模型知识表示的“知识回路”假说,深入理解大模型的知识机理显式实验神经网络

尽管大模型在常识理解、科学知识运用以及推理决策能力等方面展现出显著潜力,但仍存在如幻觉等知识偏差问题。这些问题引发了关于大模型知识表示、存储和处理机制的深入探讨:大模型的知识处理方式是否类似于人脑?其能力是否可能超越人类?

知识图谱通过符号化方式显式描绘实体与概念之间的关系,而语言模型则依赖神经网络和注意力机制隐式连接知识元素。以多跳推理为例,知识图谱提供可解释且可控的显式推理路径,而语言模型则通过隐含在参数空间中的注意力权重寻找答案,因而在解释性和可靠性方面存在不足。

为进一步探究大模型的知识处理机制,本文提出了“大模型知识表示的‘知识回路’(KnowledgeCircuits)假说”。该假说认为,大模型在处理知识时,实体、概念和关系通过参数激活逐步构成闭合回路,从而为构建更可靠、可控且安全的大模型知识学习框架和方法提供新的思路。

一、引言

尽管大模型在常识、科学知识的理解及推理决策能力等方面已展示出较强的潜力,其仍面临幻觉等知识谬误问题,由此引发了一系列对大模型知识表示、存储和处理机理的深入探讨:大型模型的知识处理方式是否与人脑相似?其能力是否能超越人类?

知识图谱通过符号表示明确刻画实体和概念间的关系,而语言模型则依赖神经网络和注意力机制隐式关联知识元素。以多跳推理为例,知识图谱提供可解释、可控的显式路径,而语言模型在隐式参数空间中依赖注意力等权重找到答案,导致解释性和可靠性不足。

为深入理解大模型的知识机理,本文被提出大模型知识表示的“知识回路”(KnowledgeCircuits)假说,认为大模型知识处理过程中的实体、概念和关系是通过参数激活逐步形成闭合回路,以助于发展更可靠、可控、安全的大模型知识学习架构和方法。

二、大模型的知识回路发现

回路的定义

“回路”是指在神经网络模型中执行特定任务的一个可解释子图。目前,语言模型主要采用Transformer架构,可将其视为一个有向无环图G。每个Transformer层包含多头注意力机制和前馈神经网络(MLP),并且每一层都是一个多头注意力机制和一个前馈网络的组合。

考虑一个注意力头(位于第l层的第j个注意力头),它对前一层的残差流进行操作。设,其中I表示输入嵌入,注意力头可被视为处理所有前层注意力头和MLP及输入嵌入的累积输出。

同样,MLP节点处理所有前层的注意力头、MLP和输入嵌入的累积输出,输出节点O则处理输入嵌入和所有注意力头及MLP的输出。Transformer模型中的残差连接可以用以下公式表示:

我们专注于回答事实上的开放领域问题的任务,目标是预测给定主题-关系对(s,r)的目标实体o。知识三元组k=(s,r,o)通常以自然语言提示的形式呈现给模型,用于下一个标记预测(例如,“法国的官方语言是____”)。

在回路的构建中,对于原始模型中的计算图的每一条边,我们计算了从计算图中删除该边后,语言模型预测o的Logits与移除之前的差异,如果对于预测性能影响在Threshold以内,则可以认为该边对于存储该知识并没有贡献,则去除该边,经过遍历后,我们则可以获得最终的知识回路。

在得到了知识回路后,我们该如何确保构建了准确的回路呢?这里,被发现的知识回路应该是Transformer知识存储中特定区域的准确表示,因此,它应该能够独立地表示知识。

为了验证构建的知识回路是否准确,我们使用验证数据集构建特定类型的知识回路,并在测试集上测试其性能。通过比较与原模型的性能变化,使用Hit@10指标评估目标实体o在前十个预测标记中的排名。

实验结果显示,构建的知识回路保留了语言模型大部分的能力,并在某些知识类型上有所提升,表明知识回路主要负责知识存储,避免了其他信息的干扰。

三、知识回路的分析

图中的例子中,经过分析不同层的输出后我们发现在MLP第17层之后,目标知识在信息流中作为Top-oneToken出现,而在该层之后,其概率一直在增加。

从发现的回路中可以看出,连接到MLP17的边是(L14H13->MLP17),(L14H7->MLP17)和(L15H0->MLP17)。

而注意头L14H7是一个MoverHead,它将信息从主体的位置France移动到最后一个标记。最终,MLP17集成了这些信息从而将最终结果French作为最终的Topone输出。

四、知识编辑情况下的知识回路的变化

“知识编辑”是近年来兴起的一项技术,旨在对语言模型中的特定知识进行精确修改。然而,当前的知识编辑方法存在一个普遍问题,那就是它们往往会对模型中的非编辑部分产生影响,即所谓的局部性不足。为了探讨这一问题,我们分析了知识编辑过程中知识回路的变化。

本研究中,我们选择了两种不同的编辑方法——ROME和Fine-Tuning(FT),并在实验中均聚焦于MLP的第二个线性层进行编辑。通过具体案例的分析,我们观察到尽管ROME和FT都能有效地将新知识注入模型,但在知识回路层面,两种方法的工作机制有所不同。

对于像ROME这样的方法,我们注意到模型修改了称为MoverHead的组件的信息流动。编辑后,模型中的MoverHead(如L15H3)能够正确地提取出“Intel”这一信息,这意味着ROME是通过修改特定层的MLP,使模型能够在最后一层Token的位置上获得正确的知识。

相比之下,FT类方法似乎是在编辑层中就赋予了新知识较高的Logit值,这直接改变了模型对新知识的认知。这意味着在FT方法下,新知识在较早的编辑层中就已经具有较高的概率,从而影响了模型的最终输出。

然而,无论是ROME还是FT,它们都未能完全避免对模型其他部分的影响。例如,在未经编辑的情况下,模型可以正确回答“创建WindowsServer的公司”这一问题,但在经过知识编辑后,使用ROME和FT的模型都给出了错误的答案。

从知识回路的角度来看,编辑的信息似乎影响到了与之无关的知识回路,导致了意料之外的结果偏差。

五、幻觉与In-ContextLearning情况下知识回路的现象

与此同时,我们还发现知识回路有助于理解语言模型中的幻觉现象以及In-ContextLearning(即情境学习,简称ICL)的能力。

当知识回路中缺乏有效的MoverHead,或者MoverHead选择了不正确的信息时,模型可能会产生幻觉。

例如,在提示“TheofficialcurrencyofMalaysiaiscalledthe”时,正确答案“Ringgit”和错误答案“Malaysian”在第15层之前的rank分布非常接近。然而,在第16层,MoverHead(L15H10)提取了“Malaysian”一词的信息,这导致模型最终输出了错误的答案。

而在ICL的场景中,我们的分析表明,相较于零样本学习(Zero-shotLearning),当加入示范示例(Demonstrations)时,知识回路中会出现一些新的注意力头。

六、总结

在本文中,我们提出了大模型知识表示的“知识回路”假说,即稀疏的回路子图用来进行知识的存储、处理与表达。知识回路表明了语言模型的知识存储不仅仅是单独的模块,还存在着不同组件之间的协同合作。实验结果表明,知识回路不仅有助于我们更深入地理解模型的行为,还在构建更为稳健的知识编辑方法方面展现了巨大的潜力。

llustrationFromIconScoutByIconScoutStore

-TheEnd-

扫码观看!

本周上新!

“AI技术流”原创投稿计划

TechBeat是由将门创投建立的AI学习社区(

投稿内容

//前沿资讯解说/心得经历讲述//

投稿须知

投稿方式

发送邮件到

melodybai@thejiangmen.com

关于我“门”

将门是一家以专注于数智核心科技领域的新型创投机构,也是北京市标杆型孵化器。公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

THE END
1.BP神经网络入门教程老饼讲解神经网络BP神经网络入门要怎么学习?初学者找到的资料也许是过于晦涩或者过于简单,本目录提供给入门初学者一个通俗、简洁又不失全面的入门教程,看完就懂https://www.bbbdata.com/nn
2.本期课程深入探讨神经网络的核心结构与工作来自与非网本期课程深入探讨神经网络的核心结构与工作原理。从前馈神经网络的构建讲起,介绍反向传播算法和自动梯度计算技术,这些是训练深度学习模型的关键。课程还将讨论神经网络参数优化过程中的主要问题,为理解深度学习模型的高效训练提供必要的知识。 L与非网的微博视频 小窗口 ?收藏 转发 评论 ?1https://weibo.com/1768387552/5112254494933678
3.探索RBF神经网络在线自适应:从初学者到专家的进阶之路在现代工程和科学研究中,神经网络的应用越来越广泛,尤其是在自适应控制和模式识别领域。RBF(径向基函数)神经网络因其强大的非线性映射能力和快速的学习速度,成为了许多研究者和工程师的首选工具。本项目提供了一个详细的RBF神经网络在线自适应源码,并附带了丰富的注释,旨在帮助初学者和研究人员更好地理解和应用这一技https://blog.csdn.net/gitblog_09796/article/details/143145639
4.基于MLP和RBF神经网络模型预测在线开放课程学习者满意度【摘要】:网络课程在近10年的发展中,在线学习者的满意度一直是一个重要的理论热点。依托某大规模在线教学与学习平台的虚拟学习环境,基于某校在网络学习空间开设的9门在线开放课程,结合LMS系统中的在线学习行为分析数据,研究开发、训练了具有不同激活函数的多层感知器(MLP)、径向基函数(RBF)以及分类树模型,以预测学生https://www.cnki.com.cn/Article/CJFDTotal-XDDJ202317017.htm
5.RBF神经网络的改进及其应用研究RBF神经网络的改进及其应用研究,RAN,在线学习,最近邻聚类,相关性剪枝策略,主元分析,数据预处理, RBF神经网络具有结构简单、学习速度快、拟合精度较高、泛化能力较强和不易陷入局部极小等优点,被广泛应用于函数逼近、分类、时间https://wap.cnki.net/touch/web/Dissertation/Article/-2008162528.html
6.神经网络控制(RBF).pptx径向基神经网络发展简史; 以后的研究者针对以前研究中存在的问题与不足提出了许多改进的方法,比如Chen提出的OLS(Orthogonal Least Squares)算法;S.Lee等人提出的HSOL (Hierarchically Self-Organizing Learning) 算法;Platt提出的RAN(Resource Allocating Network)在线学习算法;Kadirkamanathan和Niranjan提出的RANEKF(RAN viahttps://max.book118.com/html/2018/0605/170842119.shtm
7.城市居民用水范文10篇(全文)本文提出了基于在线水质参数的水质异常检测、基于自优化RBF神经网络的水质预测方法和基于FCM算法的城市居民生活用水水质异常分类方法三种水质异常检测方法, 在未来的研究中还需要进一步提高异常检测方法的性能, 确定是由何种污染物质引发的异常, 才能做到有的放矢, 采取有针对性的措施, 进而减少城市居民饮用水资源环境污染https://www.99xueshu.com/w/ikey527a5hnp.html
8.一种RBF神经网络的自适应学习算法AET径向基函数(Radial Basis Function,RBF)神经网络具有结构简单,学习速度快等优点,在函数逼近、系统辨识、模式识别等领域得到了广泛应用。 构造RBF网络的关键是合理选取径向基函数的数量和中心向量。目前,比较常用的方法主要有K均值聚类法、C-Means算法等。这些方法都是在人为确定径向基函数的数量和初始向量之后,采用基于欧http://www.chinaaet.com/article/106369
9.机器学习初级学习(1):RBF神经网络极简介绍及其算法的R语言实现最近deep learning的研究和话题开始又火了起来。然而我却还停留在RBF神经网络的阶段。真是屌丝得不能再屌丝。对SVM也还是一知半解,机器学习最多也就是个入门级别,看来离成为一名数据科学家和数据工作者的道路还很远。 这一周时间在研究神经网络,当然内容是很初级的。所以这篇日志比较适合入门者。我写下它也权当是https://m.douban.com/note/251556655
10.基于机器学习的不确定系统模型预测控制参数整定方法与流程图1为rbf神经元的示意图; [0025] 图2为rbf神经网络的结构图; [0026] 图3为bp神经网络的结构图; [0027] 图4为pso算法的流程图; [0028] 图5废水处理系统示意图; [0029] 图6基于机器学习的不确定系统模型预测控制参数调优的流程图; [0030] 图7为rbf网络训练结果验证图 https://www.xjishu.com/zhuanli/54/202011264421.html
11.周志华《机器学习》课后习题(第五章):神经网络''' 这里使用均方根误差作为损失函数的RBF神经网络。 ''' import numpy as np import matplotlib.pyplot as plt def RBF_forward(X_, parameters_): m, n = X_.shape beta = parameters_['beta'] W = parameters_['W'] c = parameters_['c'] b = parameters_['b'] t_ = c.shape[0] p =https://developer.aliyun.com/article/838466
12.人工神经网络(ANN)简述BP网络结构 BP神经网络信息流 (不能贴公式不好解释啊 -_-!)sigma是误差信号,yita是学习率,net是输入之和,V是输入层到隐含层的权重矩阵,W是隐含层到输出层的权重矩阵。 之后还有几种 径向基网络(RBF:Radial Basis Function): RBF神经网络属于多层前向神经网络,它是一种三层前向网络。输入层由信号源节点组成;https://www.jianshu.com/p/f69e16df2623
13.《光谱学与光谱分析》2022年,第42卷,第02期最后,以提取NIR图像的特征向量为依据,利用前馈神经网络的自适应推理机制,建立了稻谷霉变程度与其近红外图像特征之间的非线性映射模型,该神经网络结构为14-60-3型,进一步将网络输出编码向量解析至稻谷霉变等级,实现了稻谷霉变程度的快速检测方法。结果表明:本文提出检测模型在学习次数为28 455次时达到预设的目标精度0.06,http://www.sinospectroscopy.org.cn/readnews.php?nid=97028