创业必看!AIAgent开源和创业项目全盘点

AI崛起,能够自主规划并执行多个步骤的Agents,正成为用户的接口,也成为开发者的核心着力点。

Agent领域的研究进展可观,在一些技术细节上有了初步共识。

从MRKL、ReAct、BabyAGI和AutoGPT等工作开始,开发者们意识到链式的提示和响应可以使大模型将任务拆解成小任务并执行;

LangChain、Griptap等框架展示了Agents通过代码与API交互的能力。Toolformer和Goriila等研究表明,基础模型可以有效使用API。

微软(autogen)、斯坦福(AgentSims)和腾讯的研究里揭示了Agents协同工作能带来比单Agent工作更好的效果。

不可否认的说,今天的Agents还有很多局限性,例如经常出错、需要指导,在带宽、成本、延迟和用户体验上都还有很大的优化空间。这些局限反映了LLM本身与基础设施的局限性,开发者们努力通过工程能力来弥补这一点,并随之加速着Agents基础设施的搭建。

有人说,在模型成熟之前,构建应用仿佛在流沙上搭建城堡,而这些基础设施可能为应用或代理创建者提供了一层缓冲带,用于灵活适配并保持底层基础设施的相对稳定和持续迭代。

AIAgentInfra现状

整体来说,目前AIAgent技术栈分为平台、记忆、规划与编排、执行和应用5个板块,我们将通过后文逐一介绍。

AIAgent分层概念图

Agent开发框架

开发框架是用于构建、部署和管理agent综合平台。提供模块化的组件、集成接口和工作流设计,简化了开发者创建复杂AI应用的过程。支持数据处理、任务调度、上下文管理等功能,帮助实现高效、安全和可扩展的AI解决方案。

LangChain

LangChain是一个围绕LLM构建的框架,适用于构建聊天机器人、生成式问答(GQA)、摘要等应用。

优势:多语言支持、模块化设计、丰富的组件和集成结构、完善的生态系统;

劣势:学习曲线陡峭、依赖外部AI服务和API,可能增加集成和维护成本;

适合:多语言支持和模块化设计的应用开发;

LlamaIndex

LlamaIndex前身为GPT-Index,是一个创新的数据框架,旨在简化外部知识库和大型语言模型的集成,包括各种文件格式,例如PDF和PowerPoint,以及Notion和Slack等应用程序,甚至Postgres和MongoDB等数据库。

优势:数据检索方面深度优化、支持多种数据结构;

劣势:功能单一、社区和资源支持相对较少;

适合:数据索引和检索优化场景;

SemanticKernel

SemanticKernel是一个集成了OpenAI、AzureOpenAI、Huggingface的SDK,特别之处在于它能够自动与AI协调插件,借助SemanticKernel规划器,实现用户独特目标的计划。

优势:企业级支持、强大的自动化和扩展性,通过插件和计划生成器执行计划;

劣势:初始设置复杂、依赖微软生态;

适合:企业级应用,需高度可扩展性和稳定性的场景;

Griptape

Griptape是一个模块化Python框架,用于构建AI驱动的应用程序,包含结构、记忆、任务、工具等多个模块。

优势:结构化工作流确保操作的可预测性和可靠性、模块化设计、安全和性能优化好;

劣势:初始学习曲线较陡、社区和资源支持较少;

适合:构建复杂AI工作流和代理,注重可预测性、安全性和性能的场景;

Agent托管

AgentHosting是指在服务器或云基础设施上部署和运行AIAgent。托管这些代理需要提供所需的计算资源、安全性和拓展性,以及能够高效可靠的运行。

LangServe,将AI链(模型和工作流)作为RESTAPI进行部署,简化了将复杂AI模型集成到生成环境中的过程,提供稳定可拓展的API接口。适用于需要将AI功能通过API提供服务的企业和应用。

E2B,开源的安全云环境,专门为AI应用和AIAgent提供运行时环境。它通过提供隔离的沙箱环境,使AI代理和应用能够在云中安全地执行代码。适合用于构建和部署需要安全运行环境的AI代理和应用,特别是在代码执行和数据处理方面。

Agent评估

AgentOps和BrainTrust强调全生命周期的代理管理和评估,注重自动化和安全性。

Context专注于对话系统的评估,提升用户体验和对话质量。

LangSmith和LangFuse,提供了全面的评估和调试工具,适用于需要详细追踪和分析LLM应用的团队。

WhyLabs强调实时监控和异常检测,适用于需要确保模型在生产环境中稳定运行的场景。

DeveloperTools

DeveloperTools提供了多样化的解决方案,帮助开发者高效地创建、管理和优化AIAgent。无论是全面自动化的开发助手(Morph)、分步编程和调试工具(FlowPlayAI),还是支持自然语言编程的创新IDE(Wordware),这些工具都为不同需求和场景提供了有力支持。

个性化(记忆)

WhyHowAI:提供个性化推荐和响应优化。借助WhyHow,开发人员可以自动创建知识图谱并将其与现有工作流程集成,构建有效的RAG解决方案。

Cognee:通过分析用户交互数据,提供个性化服务。

Graphlit:利用用户数据进行个性化推荐。

LangMem:专注于个性化记忆功能,使AI代理能够记住用户的偏好和历史交互。

MemGPT:结合GPT模型进行个性化响应生成。MemGPT代表Memory-GPT,是一种旨在通过引入更先进的内存管理方案来提高大型语言模型(LLM)性能的系统,有助于克服固定上下文窗口带来的挑战。

存储

存储是指为Agent提供高效、可靠的数据存储解决方案。这些存储系统需要能够处理大量的数据,并支持快速的读写操作,以确保AI模型的高效运行。

Pinecone:专注于高性能的向量数据库,支持快速的数据检索。

Chroma:提供高效的数据存储解决方案,开源的向量数据库,专为AI和嵌入式应用设计。

Weaviate:开源的向量数据库,支持基于内容的检索和存储。

MongoDB:流行的NoSQL数据库,提供灵活的存储和检索功能。

上下文(Context)

Unstructure:开源项目,致力于提供强大的上下文管理功能,使AI代理能够理解和利用对话或任务中的上下文信息,从而提供更加连贯和智能的响应。

持久化

数据在系统长期保存和可用性,这包括将重要数据(如用户交互、任务状态和执行日志)安全地保存到数据库或其他存储介质,以便在需要时能够可靠地检索和使用。

Inngest:事件驱动的持久化工作流引擎,支持在任何平台上运行。提供SDK在现有代码库中编写持久函数和工作流,可通过HTTP端点进行调用,无需额外的基础设施管理。该项目获得了a16z领投的610万美金。

Hatchet:一个端到端的任务编排平台,支持分布式、容错任务队列,旨在解决并发、公平性和速率限制等扩展问题,支持复杂任务编排和可视化DAG(有向无环图)工作流设计,以确保工作流的组织和可预测性。YCW24布局了该项目,其愿景是在后台使用异步任务运行缓慢的OpenAI请求,将复杂的任务串联到工作流中,并设置重试和超时以从故障中恢复。

Temporal:一个开源的工作流和编排系统,支持任务的持久化存储,确保任务的可靠执行和恢复能力。

Trigger.dev:通过事件驱动的方式,提供任务和工作流的持久化管理,帮助开发者更好地管理复杂任务。

编排

编排是指协调和管理不同AI组件和服务,以确保它们在预定的流程中高效地协同工作。

Sema4.ai:提供智能编排解决方案,用于优化和自动化机器学习和AI项目中的各个步骤。

LangGraph:LangChain框架的扩展,旨在通过图形化的方法创建多代理工作流。能够处理有状态、循环和多角色的应用,适合构建需要多个代理协同工作的复杂AI系统。

Griptape:提供灵活的编排框架,使开发者能够轻松定义、管理和执行复杂的AI工作流。

CrewAI:一个多代理系统平台,旨在通过简单有效的方式实现复杂工作流的自动化。

Fixpoint:提供可靠的编排工具,确保AI和数据工作流的高效运行和管理,适用于多种AI和数据密集型应用。

AgentLabs

ToolUsage工具使用

Anthropic

Reworkd

Browserbase

Browserbase连续四周获得100%的增长

今年开始,国内的大量AI应用也开始初见产品价值,从ToB延伸到ToC,从生产力和效率延伸到综合的社交娱乐和其他的多模态等各个领域。Agenticapplicaitons发展呈现出多元化、深入化的趋势。

THE END
1.AI在自然语言处理中的突破:从理论到应用腾讯云开发者社区自然语言处理(Natural Language Processing,NLP)是人工智能(AI)的一个重要分支,旨在实现计算机与人类语言的交互。近年来,随着深度学习和大规模语言模型的发展,自然语言处理取得了显著突破,从理论研究到实际应用,推动了多个领域的进步。本文将介绍NLP的核心技术及其突破,并通过代码示例展示其应用。 https://cloud.tencent.com/developer/article/2479408
2.大模型如何理解自然语言:分词器的入门指南在自然语言处理(NLP)的领域中,"大模型"如同一位精通语言的大师,能够理解并生成各种文本。这些模型并非生来就具备这种能力,而是依赖于大量的训练和精心设计的数据预处理流程。在这一过程中,分词器扮演着核心角色,对于文本预处理至关重要。本文将深入探讨分词器的工作原理,以及一些流行大模型(例如LLaMA)的分词器实现细节https://www.jianshu.com/p/0d4649ada67a
3.nlp书mob64ca12e3dd9e的技术博客自然语言处理(Natural Language Processing, NLP)是计算机科学与人工智能的一个重要领域,涉及计算机与人类语言的互动使计算机能够理解、解释和生成自然语言。随着大数据和深度学习的迅速发展,NLP在许多应用中发挥了越来越重要的作用,如机器翻译、情感分析和聊天机器人等。本文将介绍NLP的一些基础知识及其应用,伴随代码示例来https://blog.51cto.com/u_16213379/12873411
4.青岛做网站排名/网上营销是做什么的定义:表示概念间语义关系的网络 最初目的:用于语言翻译和自然语言处理 框架(Frame) 人工智能中使用的一种数据结构 概念图(Conceptual Graph) 定义:有数学和逻辑支撑的知识表示 形式化概念分析(Formal Concept Analysis) 语义网(Semantic Web) web=文档+超链接 http://www.nhpp.cn/news/425899.html
5.深入解析生成对抗网络(GAN)在过去的几十年中,深度学习在计算机视觉、自然语言处理和语音识别等领域取得了巨大的突破。然而,如何让机器生成高质量、逼真的数据一直是人工智能领域的挑战。传统的生成模型,如变分自编码器(VAE)和马尔可夫链蒙特卡罗方法(MCMC),在处理高维数据时存在局限性。为了解决这些问题,研究人员开始探索新的生成模型,以提高生成http://www.kler.cn/a/396955.html
6.基于维基百科的概念图建模及其应用研究硕士论文师大云端基于维基百科的概念图建模及其应用研究 【摘要】文本的表征与文本间的语义相似度计算是自然语言处理领域里十分重要的基础性研究课题,它们直接影响着诸如文本自动分类、信息检索、机器翻译、问答系统等多个应用系统的效果。传统的机器学习方法仅仅使用了文本本身所提供的信息来建模和运算,面对复杂多变的网络用语和短文本,http://www.shidacloud.com/?p=66244
7.神经网络+计算机视觉+自然语言处理)的简介使用方法之详细攻略探索微软的12周、24课时的课程,进入人工智能的世界!深入了解符号AI、神经网络、计算机视觉、自然语言处理等。动手实验、测验和实验室增强你的学习。这个由专家设计的全面指南非常适合初学者,涵盖了TensorFlow、PyTorch和道德AI原则。今天就开始你的AI之旅吧!" http://www.360doc.com/content/24/0619/17/77158047_1126622153.shtml
8.数据库er概念图火山引擎是字节跳动旗下的云服务平台,将字节跳动快速发展过程中积累的增长方法、技术能力和应用工具开放给外部企业,提供云基础、视频与内容分发、数智平台VeDI、人工智能、开发与运维等服务,帮助企业在数字化升级中实现持续增长。本页核心内容:数据库er概念图https://www.volcengine.com/theme/842811-S-7-1
9.基于概念图的信息检索查询扩展模型研究与实现【摘要】: 目前基于语义的信息检索系统虽然能够识别一定的语义信息,但是由于它们对语言缺乏分析和理解,对查询式和资源表达式仅仅是一种离散的分析,失去了词语之间内在的联系,这就造成信息检索精确率下降。为了提高信息检索的精确率和查全率,本文利用自然语言处理中的概念图理论和《知网HowNet》语义词典,在lumer v4.8实验https://cdmd.cnki.com.cn/Article/CDMD-10697-2009087986.htm
10.知识表示范文10篇(全文)5)易于扩展。在知识表示过程中,通过连接可以扩展概念图,具有更加丰富的意义。 6)数学基础严密。由于概念图知识表示方法建立在数学基础之上,推理速度快。 3.4 概念图在实际工程中的应用 概念图的理论自从被提出来后,受到很多研究者的青睐并将它应用到不同领域,例如知识工程、信息检索等,在自然语言处理方面尤其语义理解https://www.99xueshu.com/w/ikeyrxncqpbb.html
11.利用AI大模型,将任何文本语料转化为知识图谱,可本地运行!(编者注:Mistral 7B是一个基于GPT架构的大型语言模型,专门优化以理解和执行用户指令,适用于多种自然语言处理任务) 像Neo4j这样的数据库使得存储和检索图形数据变得容易。在这里,我使用内存中的Pandas数据框和NetworkX Python库,以保持简单。 我们的目标是将任何文本语料库转换成概念图(GC)并像本文的精美横幅图像一样进https://blog.csdn.net/m0_59235699/article/details/140053027
12.自然语言处理20236摘要:大型语言模型(LLM)已成功用于许多自然语言任务和应用程序,包括文本生成和AI聊天机器人。它们也是面向概念的深度学习(CODL)的一种有前途的新技术。然而,前提是LLM理解概念并确保概念的一致性。我们讨论这些在本文中,以及主要用途的LLM CODL包括概念提取文本,概念图提取文本,概念学习。人类知识包括符号(概念)知识http://arxivdaily.com/thread/44542
13.语义映射技术在自然语言处理中的应用(26页)主题名称:多语言词典构建 语义映射在机器翻译中的应用 语义映射是一种在自然语言处理(NLP)中广泛应用的技术,它将一种语言中的词语或短语映射到另一种语言中对应的概念。在机器翻译中,语义映射memainkan重要的作用,因为它能够克服语言之间的语义差异,从而提高翻译质量。 https://m.book118.com/html/2024/0607/5213012230011222.shtm
14.人工智能(第3版)作为计算机科学的一个分支,人工智能主要研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统,涉及机器人、语音识别、图像识别、自然语言处理和专家系统等方向。本书包括引言、基础知识、基于知识的系统、人工智能高级专题、人工智能的现在和未来以及安全与编程六部分内容。第一部分从人工智能的定义讲起,对https://labs.epubit.com/bookDetails?id=UB835342cffc7b6
15.基于概念图和语义角色的多领域信息抽取系统研究基于概念图和语义角色的多领域信息抽取系统研究,信息抽取,语义角色,概念图相似度计算,语义计算,知网, 信息抽取作为在海量数据中,快速有效的寻找有价值信息的重要手段,是自然语言处理领域的热点课题。国外在上世纪末开始了相关方面的https://wap.cnki.net/lunwen-2010118602.html
16.英伟达提出LATTE3D:更快更好的“文生3D”方法大模型论文目前,预训练大型语言模型(LLM)是解决绝大多数自然语言处理任务的最先进方法。虽然现实世界中的许多应用仍需要微调才能达到令人满意的性能水平,但其中许多应用都处于低数据水平,这使得微调具有挑战性。 为了解决这个问题,UC 伯克利团队提出了 LLM2LLM,这是一种有针对性的迭代数据增强策略,它使用教师 LLM 来增强小型种子https://www.thepaper.cn/newsDetail_forward_26806589
17.专利汇概念图相关的专利数据本页面包括了概念图相关的所有发明专利、实用新型专利、外观设计专利,用户可以对概念图相关的专利数据进行查询检索,也可以进行概念图相关专利数据的批量下载导出甚至于统计分析。https://www.patenthub.cn/tag-1167-1.html
18.北方民族大学《自然语言处理》20232024学年期末试卷.doc学校班级姓名考场准考证号学校班级姓名考场准考证号 密封线内不要答题第1页,共3页北方民族大学自然语言处理20232024学年期末试卷题号一二三总分得分一单选题本大题共20个小题,每小题2分,共40分在每小题给出的四个选项中,只有一项是符合题https://www.renrendoc.com/paper/358203921.html
19.深度解读谷歌SyntaxNet:全新TensorFlow自然语言处理模型雷峰网在自然语言文本处理库中(比如spaCy),SyntaxNet提供了非常重要的模型。如果你把自然语言处理的概念”缩小”一点,就会意识到,这种你正在关注的技术可以拓展计算机的应用范围。即便是现在,你依然无法编写软件去控制一辆汽车,也无法用你的语气来回复电子邮件,更无法用软件来分析客户反馈,或为规避重大商业风险去监测全球新闻。https://www.leiphone.com/news/201605/k1jQ4wUkD1IrK2oD.html