图神经网络研究综述(GNN)

图结构可描述复杂关系,如基因结构、通信网络、交通路线、社交网络等。图计算挖掘结构信息,但无法学习节点特征。神经网络在欧氏空间数据上表现优越,但无法直接应用于非欧氏空间的图数据。图神经网络结合图计算和神经网络优势,处理非欧氏空间数据及其复杂特征,应用于网络链接预测、推荐系统和交通道路分析等场景。实际应用中,图数据规模庞大,如百亿级节点、千亿级边,存储开销超过10TB。GNN在大规模数据中面临计算效率、内存管理和分布式通信开销的挑战。图神经网络模型在大规模数据应用中面临的挑战可分为图数据结构、图神经网络模型、数据规模、硬件平台。

(4)硬件结构。图神经网络模型在图数据结构和复杂特征方面有建模需求,需要灵活的不规则数据读取和高效的密集计算。CPU和GPU各有优势,但无法同时满足这两点需求,增加了大规模图神经网络模型加速的难度。

本文内容组织如图2所示:

图2本文内容组织

2图神经网络

图神经网络(GNN)是一种用于图结构数据的神经网络模型,结合图计算和神经网络优势,捕捉图结构并抽象节点特征。图计算模型擅长捕捉拓扑结构,但无法处理高维特征。典型神经网络适用于欧氏空间数据,如卷积神经网络处理网格数据,循环神经网络处理序列信息。针对非欧氏空间复杂图数据,建模过程需要新处理机制。目前受欢迎的消息传播模式通过获取高阶邻居信息提升节点表达能力,包括邻居聚合和节点更新两步。

本节从消息传递机制出发,介绍图神经网络模型的聚合和更新操作,分类介绍图卷积神经网络、图注意力网络、循环图神经网络和自编码器图神经网络,分析其在大规模数据训练中的挑战,并总结挑战。

2.1消息传递机制

2.2常见模型

大规模数据训练中,GCN面临内存不足和邻居爆炸问题。分批训练可缓解内存限制,但增加计算和内存消耗。随着层数增加,资源消耗呈指数级增长。

图注意力网络(GraphAttentionNetwork,GAT)。GAT是一种深度学习模型,用于处理图结构数据。它通过引入注意力机制,为每个节点分配不同权重,以捕捉节点间的依赖关系。GAT在图神经网络中具有高效性和可扩展性,广泛应用于社交网络、推荐系统和生物信息学等领域。

大规模数据训练中,GAT与GCN均存在内存不足和邻居爆炸问题。GAT采用注意力权重加权聚合,计算和存储资源消耗更多。

大规模数据训练中,GGNN需载入整个邻接矩阵,占用更大内存。训练涉及大量参数,内存挑战显著。分批训练中,图数据不规则性增加冗余计算。

基于自编码器的图神经网络(StructuralDeepNetworkEmbedding,SDNE)。自动编码器由编码器和解码器组成,通过无监督学习高效学习节点表示。SDNN模型将自动编码器应用于图结构数据,和典型自动编码器模型相同,SDNN需要减小节点的重构损失。此外,还考虑节点间的相似性。

SDNE无法捕捉节点间的高阶关联,需通过损失函数捕捉节点间直接关联,但在大规模数据训练中,内存限制导致分批训练产生冗余计算。尽管采用负样本采样,图数据的不规则性仍带来挑战。

表3概括了图神经网络模型、图数据结构以及数据规模三个方面基于不同模型训练方式(整批训练和分批训练)的挑战。

表3图神经网络在大规模数据应用中存在的挑战

3图神经网络采样算法

针对图神经网络在大规模数据训练中面临的挑战,已经开展了一些有意义的算法优化工作。大部分的工作都集中在数据的优化上,其中最主要的方法是使用不同粒度的采样算法实现分批训练。这些算法主要可以按照采样粒度分为以下三类:基于节点的采样算法、基于层的采样算法以及基于子图的采样算法。

3.1基于节点的采样算法

GraphSage。GraphSage采用节点采样进行表示学习,优化模型参数。如图3(b)所示,针对目标节点,随机采样固定数目邻居节点,使用聚合函数进行特征聚合,借助反向传播学习。通过优化模型实现新数据表示,并借助随机节点采样算法将不规则图结构数据规则化,实现参数共享。

PinSage。PinSage算法结合随机游走和图卷积操作,用于大规模推荐系统。通过节点采样构建计算图,捕捉图结构特征,提高图卷积神经网络模型在大规模数据上的可拓展性。提出基于重要性的节点采样算法,如图3(c)所示,利用随机游走策略评估节点重要性,对每个节点选择最重要的k个节点作为采样节点,并在聚合过程中进行重要性加权。

LGCL。LGCL将图数据结构化以满足卷积操作的要求,通过节点特征重组将不规则图结构数据转化为欧氏空间,便于利用CNN算法进行优化。然而,基于显著特征的重组方式在一定程度上破坏了节点特征多样性,加剧了节点表示过度平滑问题。以图3(e)为例,采样均值聚合方式导致节点特征值趋于接近对应特征最大值,最终所有节点表示趋于相似,加剧图卷积神经网络的过度平滑问题。

3.2基于层的采样算法

AS-GON。AS-GON是一种自适应层级采样算法,通过逐层固定采样节点数避免GCN中邻居节点爆炸问题。基于上层采样结果对下层节点进行采样,使下层采样邻居节点被尽可能多的上层节点共享。AS-GON还通过连接跳跃捕捉二阶相似性,利用连接跳跃策略获取二阶邻居特征,传播高阶邻居特征信息,无需额外采样开销。

LADIES。LADIES是一种新的采样算法,旨在解决基于节点和基于层的采样算法中存在的挑战。如图4(d)所示,该算法根据上层节点及其邻居节点构建二分图,计算重要性分数作为采样概率,并依概率采样固定数目的邻居节点作为下层节点。通过迭代构建整个计算图,可以有效地降低计算和内存开销。

总结。PastGCN通过层级采样估计积分值,避免邻居节点爆炸,但存在连接稀疏和冗余节点问题。AS-GCN通过显式方差消减保证收敛性,并捕捉二阶关联性。LADIDS基于二分图构建相邻两层节点,进行层级重要性采样,缓解邻居节点爆炸问题,但全局节点复用有限。

3.3基于子图的采样算法

Cluster-GCN。Cluster-GCN通过子图采样算法提高了GCN分批训练的计算效率。通过聚类感知的划分算法Metis将节点划分为c块,并将邻接矩阵转化为对角矩阵A和B。将GCN的表示函数分解到不同的聚类分块中,并通过随机组合分块来缓解存在的边遗漏和估计误差的问题。在分批训练中,每一批随机选择多个聚类分块而不是将单个分块作为训练数据。

GraphSAINT。GraphSAINT是一种基于采样的图神经网络模型,通过先采样子图再构建网络模型,消除分批训练偏差,并降低分批方差。首先,估计节点和边的采样概率,然后在每个训练批次中进行子图采样,并构建完整的GON模型进行训练。通过归一化方法消除偏差,同时借助随机游走策略优化采样算法。Zeng等提出了GraphSAINT,通过偏差消除和误差降低提高精度。他们提出了一个并行训练框架,通过子图采样分批训练,提高程序并行性。采样器间和采样器内并行化理论上带来近线性加速比。特征传播方面,通过数据划分提高缓存利用率,减小通信开销。此外,他们还提出了运行时调度器,通过重排操作顺序和调整分批图优化并行性能。

SHADOW-GNN。SHADOW-GNN是一种图神经网络模型,旨在解决大规模数据带来的挑战,并缓解过度平滑问题。通过解耦节点接受区域与图神经网络深度之间的关联,实现深层网络表达能力,同时避免过度平滑。SHADOWGNN采用子图采样策略,形成不同子图,然后在子图上应用任意深度的图神经网络模型,获得节点表示。

总结。Cluster-GCN通过节点聚类提高节点利用率,如图5(c)所示;RWT借助随机游走策略逐层扩张子图,如如图5(b)所示;GraphSAINT侧重减小估计偏差与方差,提高模型性能;SHADOWGNNI63借助图采样策略增强模型可拓展性,缓解过度平滑问题,如图5(d)所示。

图5基于子图的采样算法

表4数据集统计信息

针对大规模数据训练中存在的挑战,本节总结了不同粒度的采样算法(如表6所示),如节点级、层级和子图级采样算法。这些算法在一定程度上缓解了大规模数据训练中存在的内存限制问题,增加了模型的可拓展性,并通过重要性采样、方差消减、随机组合等方式提高模型收敛性。然而,目前的采样算法主要基于静态的同构图进行优化,忽略了现实应用中图数据的异构性、动态性、幂律分布等复杂特征。

表6采样算法总结

4图神经网络框架

图神经网络计算过程涉及不规则访存和复杂特征计算,传统框架在图计算上性能较差。针对此问题,研究者提出面向图神经网络的编程框架并探索优化技术,为大规模图神经网络模型运行和优化奠定基础。

5总结与展望

编程框架。本文首先总结了DGL、PyG等主流的编程框架.然后将现有优化技术分为数据划分、任务调度、并行执行、内存管理和其他方面五类。针对每一个类别,简要介绍了其优化目标并列举了具体的优化策略。最后进行了全面的总结和分析。

THE END
1.几种常见的神经网络了解简述常用的神经网络有哪些几种常见的神经网络了解 神经网络技术起源-感知机 神经网络技术起源于上世纪五、六十年代,当时叫感知机(perceptron),拥有输入层、输出层和一个隐含层。输入的特征向量通过隐含层变换达到输出层,在输出层得到分类结果。早期感知机的推动者是Rosenblatt,当时感知器传输函数是用线拉动变阻器改变电阻的方法机械实现的。但是,https://blog.csdn.net/studyeboy/article/details/54376676
2.《常见神经网络模型》课件.pptx《常见神经网络模型》ppt课件神经网络简介常见神经网络模型神经网络的训练与优化神经网络的未来发展与挑战目录01神经网络简介描述神经网络的基本单元,包括输入、权重、激活函数等。神经元模型神经网络结构训练与优化介绍神经网络的层次结构,包括输入层、隐藏层和输出层。阐述神经网络的训练过程和优化算法,如梯度下降法等。0302https://www.renrendoc.com/paper/310738553.html
3.神经网络的基本概念以及常见的神经网络(一)(3)硬声是电子发烧友旗下广受电子工程师喜爱的短视频平台,推荐神经网络的基本概念以及常见的神经网络(一)(3) 视频给您,在硬声你可以学习知识技能、随时展示自己的作品和产品、分享自己的经验或方案、与同行畅快交流,无论你是学生、工程师、原厂、方案商、代理商、终端商https://www.elecfans.com/v/396845
4.神经网络的重要特征神经网络的基本特点神经网络的学习过程,就是根据训练数据来调整神经元之间的连接权(connection weight)以及每个功能神经元的阈值,简言之,神经网络模型要学得就是连接权和阈值。下面就要看用什么算法来学习出神经网络模型的权值和阈值。 5.3误差逆传播算法 误差逆传播算法(error BackPropagation,BP算法)是训练多层前馈神经网络模型的常见算法https://blog.51cto.com/u_75269/8272128
5.下列不属于常见的深度神经网络结构有()。参考解析: 单一神经网络 AI解析 重新生成最新题目 【单选题】如果将人眼比作照相机的话,则相当于暗盒的是( )。 查看完整题目与答案 【单选题】道德是人类社会生活中依据社会舆论、( )和内心信念,以善恶评价为标准的意识、规范、行为和活动的总称。 查看完整题目与答案 【单选题】人眼由( )组成。 查看完整题目https://www.shuashuati.com/ti/c1b8334732fe4635abc21bc6f13a62b1.html
6.“花朵分类“手把手搭建卷积神经网络腾讯云开发者社区本文介绍卷积神经网络的入门案例,通过搭建和训练一个模型,来对几种常见的花朵进行识别分类; 使用到TF的花朵数据集,它包含5类,即:“雏菊”,“蒲公英”,“玫瑰”,“向日葵”,“郁金香”;共 3670 张彩色图片;通过搭建和训练卷积神经网络模型,对图像进行分类,能识别出图像是“蒲公英”,或“玫瑰”,还是其它。 https://cloud.tencent.com/developer/article/1822920
7.常用的卷积神经网络模型有哪些?常用的卷积神经网络模型有很多,每个模型都有不同的结构和应用领域。以下是一些常见的卷积神经网络模型: LeNet-5:LeNet-5 是最早的卷积神经网络之一,由Yann LeCun等人在1998年提出。它主要应用于手写数字识别,包含卷积层、池化层和全连接层。 AlexNet:AlexNet 是在2012年由Alex Krizhevsky等人提出的,是第一个在大https://www.cda.cn/view/203005.html
8.什么是神经网络?IBM神经网络可分为不同类型,用于不同的目的。虽然这并不是一个全面的类型列表,但下面列出的是最常见的神经网络类型,您会在常见的使用案例中遇到: 感知器是最古老的神经网络,由 Frank Rosenblatt 在 1958 年创建。 前馈神经网络或多层感知器 (MLP) 是本文的主要研究对象。它们由一个输入层、一个或多个隐藏层和一https://www.ibm.com/cn-zh/topics/neural-networks
9.17个机器学习的常用算法深度学习算法是对人工神经网络的发展。在近期赢得了很多关注, 特别是百度也开始发力深度学习后, 更是在国内引起了很多关注。 在计算能力变得日益廉价的今天,深度学习试图建立大得多也复杂得多的神经网络。很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。常见的深度学习算法包括:受限波尔兹曼https://aidc.shisu.edu.cn/78/aa/c13626a161962/page.htm
10.机器学习(一)2万多字的监督学习模型总结常见的库: - scikit-learn:MLPClassifier 和MLPRegressor,只包含神经网络潜在应用的一部分 - keras:既可以用tensor-flow 也可以用theano。 - lasagna:基于theano 库构建的 - tensor-flow:谷歌的深度学习框架 ? 这些库提供了更为灵活的接口,可以用来构建神经网络并跟踪深度学习研究的快速发展。所有流行的深度学习库https://www.flyai.com/article/515
11.常用的nlp语言模型有哪些问答神经网络语言模型(Neural Network Language Model):神经网络语言模型利用神经网络来学习句子的概率分布。常见的神经网络语言模型包括循环神经网络语言模型(RNNLM)和变换器模型(Transformer)等。 预训练语言模型(Pretrained Language Model):预训练语言模型是通过在大规模文本语料上进行无监督学习得到的模型。常见的预训练语言模https://www.yisu.com/ask/54616002.html
12.几种常见的循环神经网络结构RNNLSTMGRU与传统的循环神经网络相比,LSTM仍然是基于xt和ht?1来计算ht,只不过对内部的结构进行了更加精心的设计,加入了输入门it 、遗忘门ft以及输出门ot三个门和一个内部记忆单元ct。输入门控制当前计算的新状态以多大程度更新到记忆单元中;遗忘门控制前一步记忆单元中的信息有多大程度被遗忘掉;输出门控制当前的输出有多大https://www.jianshu.com/p/0cf7436c33ae