基于图神经网络的大语言模型检索增强生成框架研究算法大模型

我们首先运用PyTorchGeometric和G-Retriever构建GNN-LLM架构的探索性模型,从理论和实现两个维度建立对核心问题的基础认知。然后研究聚焦于最新提出的GNN-RAG架构,通过敏感性研究和架构改进,探索提升其知识图谱问答性能的方法。最后研究通过引入反思机制和教师网络的概念,对上述两种GNN-LLM架构的图推理能力进行了创新性扩展。这些概念基于GNN实现,并与近期语言模型研究中的思维链概念存在关联。本文主要聚焦于架构中GNN部分的优化与分析。

基线模型架构

在开始之前,我们首先简要概述G-Retriever和ReaRev(GNN-RAG模型的GNN组件)的原始架构,以此作为背景并引出本文的创新贡献。

G-Retriever

在最后的答案生成阶段,系统使用图神经网络(通常采用GraphAttentionTransformer)对构造的子图进行编码,得到子图的向量嵌入表示(即GNNGAT输出)。同时系统独立生成包含所有子图节点/边/文本及查询问题q的文本嵌入。最终系统将GNNGAT输出的子图向量嵌入与文本嵌入组合,通过LLM提示调优输入到LlamaLLM中生成最终答案。

GNN-RAG

在原始GNN-RAG论文中,采用ReaRev模型作为架构的GNN组件。关于ReaRev架构的详细说明将在后续章节介绍。

系统使用现有的图处理算法(如NetworkX中实现的算法)从子图中提取种子查询实体到候选答案实体之间的最短路径。这些路径被转换为文本格式(如图左下角所示)并与经过优化的提示一起输入LLM,该提示本质上要求LLM基于输入的推理路径生成查询答案。在图中所示的"+RA"(检索增强)可选步骤中,系统通过直接向LLM提交查询,并行生成额外的推理路径,以探索在不具备子图信息情况下LLM的推理结果。当启用RA时,系统将GNN生成的推理路径与LLM初步生成的推理路径合并,作为最终推理步骤的输入。

ReaRev

GNN的核心计算过程可概括为三个主要步骤:

ReaRev通过引入针对深度知识图谱推理优化的注意力机制,增强了传统GNN结构(消息传递、聚合、层间组合/更新)的性能。

ReaRev的一个关键创新在于将初始问题表示为K个指令的集合,其中K为超参数(本文将对此进行深入探讨)。GNN本身由L层组成(另一个超参数)。最后一个关键参数是自适应阶段数T。本质上ReaRev将完整的L层GNN运行T次。在每个自适应阶段结束时,系统基于底层知识图谱的信息(特别是问题种子实体的嵌入)更新指令嵌入。这种设计的原因在于,仅基于问题的指令条件不足以生成必须从给定子图推导的准确答案。

在GNN的每一层中,消息传递、聚合和更新机制的具体实现如下:

性能评估指标

本文采用了多个知识图谱问答领域的标准评估指标来全面衡量模型性能。这些评估指标与Mavromatis和Karypis的研究保持一致。

Hit:表示真实答案是否出现在模型返回的答案集合中,用于评估模型的基本召回能力。

Hits@1(简写为H@1或H1):衡量模型预测置信度最高的答案的准确率,反映模型的精确预测能力。

精确率(Precision):量化模型正向预测的准确性,计算方式为正确预测为正的答案数量与预测为正的答案总数的比值。

召回率(Recall):也称为真阳性率,计算方式为正确预测为正的答案数量与实际正确答案总数的比值,反映模型发现正确答案的完整性。

F1分数:精确率和召回率的调和平均值,提供了模型性能的综合评估指标。

第一部分:G-Retriever探索性建模研究

为深入理解GNN-LLM架构,我们首先基于PyTorchGeometric开发了一个基于G-Retriever的基线GNN-RAG模型。在此框架下可以探索不同GNN编码器的性能表现(包括图注意力转换器(GAT)、GraphSAGE和图同构网络(GIN)),采用Tiny-Llama作为LLM组件,并对网络层数进行了初步的敏感性分析。

数据集

第一部分采用PyTorchGeometric数据集模块提供的WebQuestionsSP(WebQSP)数据集。WebQSP是一个广泛应用于KGQA任务评估的标准数据集,源自Freebase知识图谱,包含需要最多2跳推理的简单问题。下表列举了本文中使用的WebQSP数据集的关键特征。

模型实现

下面的代码片段展示了PyTorchGeometric中G-Retriever模型的基本定义,包括GNN编码器的指定和LLM提示微调的配置。如前所述,研究在三种主流架构(GAT、GraphSAGE和GIN)之间进行了对比实验,并探索了不同的网络层数配置(2层或4层)。

实验结果与分析

下表总结了G-Retriever模型的实验结果。所有模型配置均采用WebQSP数据集进行了50轮训练,批量大小设置为4。

基于G-Retriever模型的实验结果(训练轮数:50轮)

实验结果表明,在与TinyLlama组合时,图同构网络(GIN)编码器在我们的G-Retriever框架中展现出最优性能。尽管这不是一个完整的敏感性研究,但实验数据揭示了层数增加对不同GNN架构的差异化影响:对于GAT,从2层增加到4层导致hit、recall和F1指标的提升;对于GraphSAGE,仅观察到recall的改善;而对于GIN,未观察到显著改善。虽然"过度平滑"现象(将在第二部分详细讨论)是GNN中的普遍问题,但其影响程度因架构而异。

就整体性能而言,可以通过以下方式进一步优化上述结果:增加梯度下降过程中的批量大小,以及使用更强大的预训练LLM(如Google的Gemma或标准的7B参数LlamaLLM)替代相对较小的TinyLlama(1B参数)。

尽管G-Retriever是一个新发表的精细架构,但利用PyG的预置模型抽象了部分复杂性,这使我们能够专注于理解高层模型结构、超参数配置和标准数据集的应用。接下来,我们将深入探讨另一个最新发布的复杂架构GNN-RAG,并在研究的后续部分对其性能进行更深入的分析。

第二部分:GNN-RAG模型架构改进与敏感性研究

数据集选择与处理

为便于与现有研究进行性能对比,我们采用了原始GNN-RAG论文作者预处理的ComplexWebQuestions(CWQ)数据集。CWQ数据集通过向WebQSP问题增加实体或向答案添加约束条件构建而成,包含需要最多4跳推理的复杂问题。该数据集提供了多样化的KGQA任务场景,适合用于模型性能的全面评估。本文的第二部分和第三部分均采用CWQ数据集进行实验。

下图展示了经预处理的CWQ数据集样例。每个数据样本包含以下关键元素:唯一标识符、正确答案的标识符及完整文本、查询文本、知识图谱中对应查询的种子实体(图中橙色标注),以及由实体(节点)列表和关系(事实)元组列表描述的知识图谱子图。

数据集预处理主要包含两个核心步骤:

预处理后的CWQ数据集示例。完整数据集可通过原始GNN-RAG作者的GitHub仓库获取。

基于现有架构的超参数优化研究

虽然ReaRevGNN模型的原作者在其发表的论文中提供了部分关键超参数的敏感性研究结果(主要基于CWQ以外的数据集),为了进一步扩展了这些研究,更全面地理解和探索原始架构的表达能力极限,为后续更深层次的架构改进奠定基础,我们研究设计了三类敏感性分析:

ReaRev架构改进研究

实验1A:层级指令更新机制

根据对原始ReaRev架构的分析,将输入查询表示为K个指令嵌入的集合是决定模型性能的关键因素之一。在ReaRev框架中,自适应阶段的核心功能是迭代更新指令嵌入,使其能够反映用于答案推导的底层知识图谱信息。每个自适应阶段都需要将知识图谱通过完整的GNN模型(所有层)进行处理。因此如原作者指出,ReaRev的计算复杂度与自适应阶段数T呈正比。原始研究表明T=2已能达到较好的效果。

基于这一观察,可以提出一个创新性假设:通过在每个GNN层之后(而非每个自适应阶段之后)更新指令嵌入,可能使较小的自适应阶段数(如T=1,即单次GNN遍历)在性能上具有可行性。实验1A通过设置T=1并修改ReaRev代码实现了这一设想,具体实现如下所示:

实验1B:指令更新的跳跃连接

对原始ReaRev架构中的指令更新机制提出了另一项改进。在原始架构中,更新后的指令是可学习参数和问题种子实体嵌入的函数,同时结合门控循环单元计算的输出门向量:

其中:

实验1B提出引入跳跃连接机制来改进指令表示的更新方案。这一改进借鉴了GNN领域的经典思想:跳跃连接常用于缓解深层网络中的节点表示"过度平滑"问题,其核心思想是保留早期层的表示信息,因为这些信息可能包含在后续层处理中丢失的重要特征。将这一思想应用于自适应阶段间的指令嵌入更新过程。通过在指令更新中添加跳跃连接,系统可以保持早期阶段指令表示中的关键信息。具体实现如下,本质上是对前一阶段指令和新阶段指令进行加权平均:

实验2A:增强型消息传递机制

实验2A和2B聚焦于改进ReaRev架构的消息传递机制。在原始模型中,从邻接节点v'到目标节点v在GNN第l层对第k条指令的消息传递函数定义如下:

通过对整体架构的分析,可以认为在消息函数中纳入更多邻接节点信息可能是有益的。例如,目标节点可能与多个邻接节点通过相同类型的关系连接,此时邻接节点本身的嵌入信息对于消息传递可能具有重要价值。基于此,本文提出了如下改进的消息函数:

具体实现代码如下:

实验2B:注意力增强的消息函数

基于实验2A的结果分析,还可以进一步提出了一个具有更强表达能力的消息函数改进方案:

这里的||运算符表示垂直拼接操作,这一点从W_R3线性投影张量的维度设计中可以明确看出。这一改进的核心思想是为指令嵌入i与关系嵌入和邻接节点嵌入的交互提供多样化的注意力计算方式,从而增强模型的表达能力。该设计部分受到了原始模型架构中其他融合/注意力计算(如实验1B中的等式(11))的启发。具体实现代码如下:

在第二部分进行的实验中,如下表所示,实验1B和2B在五个评估指标上均达到了最优表现。下文将对实验结果进行详细分析和讨论。

ReaRev架构敏感性研究和改进实验的性能评估结果(训练轮数:100)。表中加粗值表示各指标的最优性能,下划线值表示次优性能。*注:S1为原始GNN-RAG作者工作的基准配置。

实验结果详细分析

GNN层数对模型性能的影响

下表和图表展示了GNN层数敏感性研究的详细结果。

不同层数配置下的训练损失、F1和H1(H@1)指标演化曲线

自适应阶段数的影响分析

考虑到增加自适应阶段数所带来的显著计算开销,本文主要探索了减少自适应阶段数的可行性(这也为实验1A提供了有效的比较基准),结果如下表所示。

实验数据显示,当自适应阶段数从2减少到1时,模型性能出现了预期中的下降,这验证了原作者关于更新指令嵌入以反映底层知识图谱信息对提升答案质量的重要性的论述。特别值得注意的是,精确率的下降幅度明显大于召回率。这一现象从反面说明,增加自适应阶段数最显著的改进效果体现在提高模型的精确率和降低假阳性预测方面。然而,仅通过增加自适应阶段数似乎难以显著改善假阴性预测的问题。这一发现将在后续讨论实验1A时进行更深入的分析。

指令数量的影响研究

对原始GNN-RAG实现中指定的指令数量进行增减实验,结果如下表所示。

查询指令数量变化的敏感性研究结果汇总

根据实验数据,可以得出以下关键发现:

这些结果揭示了指令数量对模型性能的多维度影响。根据现有数据,较少的指令数量有利于提高召回率,而精确率则随着指令数量的增加而提升,但这种提升存在上限。为深入理解这一现象,按问题类型(基于问题实体到真实答案实体的最短路径跳数)对性能进行了细分分析。下表分别展示了三组敏感性研究的精确率和召回率在不同问题类型上的表现。

不同问题类型的精确率分析结果

不同问题类型的召回率分析结果

在精确率方面,1跳和2跳问题在K=3时表现最佳,而3跳及以上问题在K=4时达到最优。这表明,对于需要在知识图谱中遍历更长路径的查询,增加指令数量能带来更显著的益处。相比之下,召回率分析显示,对于所有跳数长度的问题,K=2配置均能获得最佳性能。这一发现揭示了指令数量选择时需要权衡精确率和召回率的关系。研究表明,较大的指令数量主要有助于提高长路径查询的答案精确率。

架构改进实验的详细分析

为全面评估架构改进的效果,将实验1A和1B(针对指令更新方案的改进)以及实验2A和2B(针对消息传递方案的改进)的结果与关键敏感性研究进行对比分析,详细结果如下表所示:

指令更新机制的改进效果分析

实验1A与基准模型的对比

推测的原因可能是:通过额外的架构改进可能提升实验1A的性能,例如在每次更新时为指令添加跳跃连接(即结合1A和1B的设计理念)。然而,这种改进可能仍难以超越本文中其他模型配置的性能表现。

实验1B的性能分析

实验1B最适合与基准实验1S进行对比,因为两者采用了相同的超参数配置。实验结果显示,1B相对于1S在召回率和命中率上实现了超过1%的提升,但同时导致精确率和F1分数出现明显下降,而H@1指标仅有轻微降低。这表明在指令更新方案中引入跳跃连接确实能够保留有助于提高召回率的关键信息。尽管这种改进会导致精确率的一定损失,但对H@1指标的影响相对有限。这一发现启示我们,如果能将指令嵌入跳跃连接与其他提升精确率的改进措施相结合,可能为基准模型架构带来更全面的性能提升。

消息传递机制的改进效果分析

实验2A的性能评估

通过比较实验2A和基准实验1S的结果,可以观察到:在消息函数中直接引入邻居嵌入信息的初步尝试导致精确率和F1分数下降,仅在召回率上实现轻微改善,同时H@1和命中率出现小幅下降。这一结果表明,虽然邻居嵌入中确实包含有价值的信息可供消息函数利用,但实验2A中采用的具体实现方式可能不是最优的。

实验2B的突破性进展

基于实验2A的结果分析,实验2B重新设计了消息函数,旨在为指令嵌入与关系和邻居节点嵌入的交互提供更多样化的注意力计算方式。这一设计允许模型通过可学习的权重参数更灵活地选择和强调关系与邻居嵌入中的关键信息。实验结果有力地支持了这一设计理念:相比基准模型,精确率、F1分数和H@1指标均提升了1-1.5%以上,仅在召回率和命中率上出现轻微下降。

研究结论与未来展望

通过对ReaRevGNN模型架构(GNN-RAG架构的核心组件)的深入研究,探索了模型的行为特征并提出了多项有效的改进方案。研究工作主要包括:

特别值得注意的是,实验1B(指令跳跃连接)和实验2B(增强型消息传递)分别在召回率和精确率方面取得了最佳表现,这为未来的研究指明了方向。

基于本文的发现,可以提出以下几个有价值的未来研究方向:

第三部分:GNN-RAG架构的创新性扩展

本文的第三部分探索了通过反思机制和教师网络两种创新性概念来扩展GNN-RAG架构的可能性。这两种方法都旨在提升模型的推理能力和答案质量。

原始GNN-RAG模型在知识图谱中主要依赖问题和答案之间的单一最短路径进行推理。为增强这一基本假设,可以提出了三种可能的改进方向:

本文重点探索了第三种方案,并提出了一种创新性的"反思"或"反事实"推理机制,该机制可以在预训练模型上直接应用,无需额外的训练过程。如图所示,当系统确认某个答案错误时(例如在生产环境中通过用户反馈),该机制能够基于GNN的原始推理路径,指导模型从错误答案节点开始反向探索,在某个前序步骤启动束搜索,或利用原始答案路径的补集(即负采样)进行推理,这一过程仍然使用预训练模型完成。

值得注意的是,在本文的实验设置中,使用的是预处理数据集,其中每个正确答案都确保存在于传递给GNN的子图中。未来研究可以将这一机制扩展到开放集问题场景(即GNN需要在推理答案之前选择合适的子图),可能的方向包括通过比较不同采样子图中节点/实体嵌入的相似性来指导多重图上的遍历策略。

反思机制的实验实现

失败案例分析

为了有针对性地提升模型性能,首先对失败案例进行了系统性分析。重点考察了在不同GNN层配置下,错误候选答案到正确答案的(跳)距离分布。采用networkX库中的最短路径算法(类似BFS搜索)来计算这一距离指标。表中展示了跳距离的详细分布情况。实验数据显示,相比L=3和L=5的配置,L=7的GNN模型生成的错误候选答案与正确答案之间的平均跳数更小。这一现象可以解释为:更深的GNN结构能够获取更远距离的节点信息,从而在推理过程中更接近正确答案。

不同GNN层数配置下错误候选答案与正确答案间跳距离的对比分析

图结构上的反思实现

基于前述分析,我们针对3、5和7三种不同的GNN层数配置进行了实验,目标是在较小的(跳)距离范围内定位正确答案。考虑到大多数有价值的失败案例与正确答案之间仅相距几跳,采用了以下创新性方法:重用预训练GNN架构,保持查询文本不变,但将问题实体替换为当前错误候选答案的全局实体ID。实验结果如表所示。

数据显示,3层GNN配置在此项改进中获得了最显著的性能提升,提升幅度达52%。为简化实验复杂度,在每个案例中仅选择一个与正确答案具有最短跳距离的错误候选答案进行分析。实验结果的合理性可以从以下角度理解:3层GNN从第二次"反思"调用中获得最大收益,这是因为仅有3层的GNN结构无法像更深层的网络那样获取远距离的跳跃信息(3层结构最多获取3跳信息),而L=7的配置本身就具备较强的远距离信息获取能力。这一解释与表中结果分布的趋势相符。

下表总结了引入反思机制后模型的整体性能表现。实验表明,L=5的GNN配置达到了最优性能,这种结果可以类比于传统BFS和DFS算法的平衡点。这一发现也与第二部分中关于层数的敏感性研究所揭示的"过度平滑"效应相呼应。与原始论文的结果(使用作者发布的默认设置和SBERT重新运行)相比,本文提出的反思机制在F1、H@1和Hit三个指标上分别实现了2.95%、1.33%和2.04%的性能提升。

反思机制的潜在优化方向

基于当前研究成果,我们识别出两个可能的优化方向,有望进一步提升反思机制带来的性能增益:

基于教师网络的GNN推理监督优化研究

使用教师神经网络(如OpenAI的o1模型)来分析预训练GNN模型在推理过程中的具体失败步骤。具体来说我们向LLM提供子图作为提示,要求其采用步骤式思维方式,从给定的可能选项中选择最合理的答案(类似于多选题的形式),从而为模型微调提供指导。这种方法在计算效率上具有优势,因为它在推理阶段执行,无需对GNN进行重新训练。

LLM生成的推理路径可以作为监督信号,用于增强GNN的训练过程。

实验实现与结果分析

LLM提示设计

我们选择GPT-o1和GeminiAdvanced1.5Pro作为教师网络,用于生成推理路径。这些路径随后与GNN的输出进行比较,以定位GNN推理路径开始偏离LLM生成路径的具体节点(实体)。实验采用以下三步提示策略:

GPT-o1的推理路径分析

GPT-O1模型的响应如下:

基于提供的知识图谱分析表明,该图中不包含将CountryNationWorldTour的演出艺术家(BradPaisley)与其就读的具体学院或大学关联的信息。因此,仅凭给定的图无法确定准确答案。

推理路径分析:

1.确认演出艺术家信息:

由此确认CountryNationWorldTour的表演者为BradPaisley。

2.查找教育背景信息:

然而,在所有提供的三元组中,未发现将BradPaisley的教育节点与具体院校名称关联的信息,如['BradPaisley','education.education.institution','BelmontUniversity']这样的关联关系。

Gemini的推理路径分析

GeminiAdvanced1.5Pro模型给出了以下分析:

CountryNationWorldTour的演出艺术家BradPaisley就读于BelmontUniversity。

推理路径:

1.演出者识别:

2.院校信息查找:

3.院校信息补充路径:

总结

本文采用多层次方法探索了GNN-LLM架构领域的最新发展。我们对最新提出的GNN-RAG架构进行了深入研究,通过敏感性分析、架构改进和创新性方法扩展,在标准评测数据集上取得了显著的性能提升。正如研究过程中所揭示的,GNN-LLM架构的优化仍存在诸多富有前景的研究方向。GNN将在推动LLM研究和性能提升方面发挥重要作用,我们期待该领域未来的进一步发展。

THE END
1.AdeeplearninglibrarytoprovidealgsinpureNumpyorNotificationsYou must be signed in to change notification settings Code Issues Pull requests Actions Projects Security Insights Additional navigation options master 1Branch0Tags Code README MyDeepLearning Repo Intro This repo is to construct a DL library for learning and testing some classic projects thhttps://github.com/nick6918/MyDeepLearning
2.ai智能深度学习aideeplearning吴恩达deeplearning.ai课程作业,自己写的答案。 补充说明: 1. 评论中总有人问为什么直接复制这些notebook运行不了?请不要直接复制粘贴,不可能运行通过的,这个只是notebook中我们要自己写的那部分,要正确运行还需要其他py文件,请自己到GitHub上下载完整的。这里的部分仅仅是参考用的,建议还是自己按照提示一点一点写,https://blog.51cto.com/u_16099323/6839266
3.DeepLearningforAspectBasedSentimentAnalysisDeep Learning in Medical Ultrasound Analysis: A Review.pdf 浏览:53 Deep Learning in Medical Ultrasound Analysis: A Review.pdf 马云飞A_Novel_Hybrid_Deep_Learning_Model_for_Sentiment_Classification.pdf 浏览:172 ### 一种新型混合深度学习模型在情感分类中的应用 ### 概述 本文介绍了一种新的混合深度https://download.csdn.net/download/hfrommane/15931583
4.DeeplearningforirregularlyandregularlymissingdataDeep learning (DL) is a powerful tool for mining features from data, which can theoretically avoid assumptions (e.g., linear events) constraining conventional interpolation methods. Motivated by this and inspired by image-to-image translation, we appliedhttps://www.nature.com/articles/s41598-020-59801-x
5.(PDF)神经?络与深度学习NeuralNetworksandDeepLearning神经?络与深度学习 Neural Networks and Deep Learning (美)Michael Nielsen 著 Xiaohu Zhu Freeman Zhang April 16, 2016 Version: 0.1.1 译 版权本书英?原版地址为:http://neuralnetworksanddeeplearning.com/ 。在学术著作中请引?英?原?为:Michael A. Nielsen, “Neural Networkshttps://www.academia.edu/35575647/%E7%A5%9E%E7%BB%8F_%E7%BB%9C%E4%B8%8E%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0_Neural_Networks_and_Deep_Learning_%E7%BE%8E_Michael_Nielsen_%E8%91%97
6.executable:importONNXNetworkrequirestheDeepLearningOpen in MATLAB Online I am trying to make an executable of a Matlab code using the Deep Learning Toolbox with Application Compiler. The created executable make an error and display the following message: I have checked on the Add-On Explorer, the "Dehttps://nl.mathworks.com/matlabcentral/answers/472986-application-compiler-error-with-an-executable-importonnxnetwork-requires-the-deep-learning-toolbo
7.frommultitemporalTerraSARWe use adaptive moment estimation max (AdaMax) (Kingma and Ba, 2015) as the optimizer with a learning rate of 0.0001 and an L2 regularization factor of 0.00001. The proposed framework for using deep learning to delineate the calving fronts is summarized in Fig. 3. We separate all the SAR https://www.the-cryosphere.net/13/1729/2019/
8.实物特征:HandsSpeed up the design and implementation of deep learning solutions using Apache Spark Key Features Explore the world of distributed deep learning with Apache Spark Train neural networks with deep learning libraries such as BigDL and TensorFlow Develop Spark deep learning applications to intelligentlyhttps://catalog.library.tamu.edu/Record/in00004136552/Description
9.Java分布式神经网络库Deeplearning4j之上手实践手写数字图像识别Java分布式神经网络库Deeplearning4j 环境搭建和运行一个例子 代码所在包截图示意 第一步运行MnistImagePipelineExampleSave代码下载数据集,并进行训练和保存 需要下载一个文件(windows默认保存在C:\Users\Administrator\AppData\Local\Temp\dl4j_Mnist)。文件存在git。如果网络不好。建议手动下载并解压。然后注释掉代码中https://cloud.tencent.com/developer/article/1039952
10.科学网—深度学习火了:最大汇集剽窃?[4] M. Riesenhuber and T. Poggio. Hierarchical models of object recognition in cortex.Nature Neuroscience, 2(11):1019–1025, 1999. [5] J. Schmidhuber. Deep learning in neural networks: Anoverview. Technical Report IDSIA-03-14, The Swiss AI Lab IDSIA, Manno-Lugano,Switzerland, October 8https://wap.sciencenet.cn/blog-395089-861786.html
11.Java机器学习软件介绍Deeplearning4j:Deeplearning4j声称是用Java编写的商用深度学习图书馆。它被描述为兼容Hadoop并提供算法包括限制玻耳兹曼机,deep-belief网络和Stacked Denoising Autoencoders(SdA)。 机器学习流行算法一览 最好的开源报表工具 更多机器学习专题 1 banq2015-03-30Haskellscala函数式编程 https://www.360doc.cn/article/9482_459666684.html
12.ReasoningUsingTheoremProvingandMachineLearningTan, M., Santos, C.D., Xiang, B., Zhou, B.: LSTM-based deep learning models for non-factoid answer selection. CoRR - Computing Research (2021)Negation in Cognitive ReasoningKI 2021: Advances in Artificial Intelligence10.1007/978-3-030-87626-5_16(217-232)Online publication date: 27-https://dl.acm.org/doi/abs/10.1007/978-3-030-29726-8_25
13.DeepSimilarityLearningforSportsTeamRankingPonti, "Regression in Deep Learning: Siamese and Triplet Networks," 2017 30th SIBGRAPI conference on graphics, patterns and images tutorials (SIBGRAPI-T), no. Icmc, 2017. [9] C. J. Burges, "From ranknet to lambdarank to lambdamart: An overview," Learning, vol. 11, no. 23-581, p. http://arxiv.org/pdf/2103.13736
14.DeepLearningwithArcGISProTips&Tricks:Part2.h5: Keras deep learning model file extension .py: Python script GeoAi: Geographical Artificial Intelligence Dlpk: Esri Deep learning package CNN: Convolutional neural networks Mask R-CNN: Mask RCNN is a deep neural network aimed to solve instance segmentation problem in machine learning or computehttps://www.esri.com/arcgis-blog/products/arcgis-pro/imagery/deep-learning-with-arcgis-pro-tips-tricks-part-2/
15.实用资料RNN和LSTM资源目录收集大全–爱玩吧Attention and Memory in Deep Learning and NLP blog:http://www.wildml.com/2016/01/attention-and-memory-in-deep-learning-and-nlp/ Survey on the attention based RNN model and its applications in computer vision arxiv:http://arxiv.org/abs/1601.06823 https://www.aiwanba.net/post/3216.html
16.DeepLearninginNeuroradiologyAmericanJournalofSUMMARY: Deep learning is a form of machine learning using a convolutional neural network architecture that shows tremendous promise for imaging applications. It is increasingly being adapted from its original demonstration in computer vision applications to medical imaging. Because of the high volume andhttp://dx.doi.org/10.3174/ajnr.a5543
17.ApplicationsofreinforcementlearninginenergysystemsIn most studies, however, deep learning techniques and state-of-the-art actor-critic methods (e.g., twin delayed deep deterministic policy Based on the min-max RL formulation, reductions between RL methods and online learning algorithms have been established [196], leading to the https://www.sciencedirect.com/science/article/pii/S1364032120309023
18.NeuralNetworkExamples,Applications,andUseCasesCourseraSpeech recognition allows AI to “hear” and understand natural language requests and conversations. Scientists have been working on speech recognition for computers since at least 1962. But today, advancements in neural networks and deep learning make it possible for artificial intelligence to have anhttps://www.coursera.org/articles/neural-network-example
19.2024全球6G技术大会consideredoneofthemostimportanttechnologiesinsemanticcommunication.By 17/97 incorporatingtheSNRintothechannelfeaturesduringDNNtraining,joint semantic-channelcodingenablestheextractionofsemanticfeaturesinnoisy environments.Thankstotherapiddevelopmentofdeeplearningalgorithms,joint semantic-channelcodinghasbeenappliedinvarioussourhttps://max.book118.com/html/2024/0423/5031230301011144.shtm
20.BlockchainFederatedandDeepLearningOur findings indicate improved effectiveness in identifying COVID-19 patients and achieved an accuracy of 98.99%. Thus, our model provides substantial aid to medical practitioners in their diagnosis of COVID-19. Keywords: data privacy; COVID-19; blockchain; federated learning; deep learning; CT https://www.mdpi.com/2306-5354/10/2/203/xml