Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

给个使用langgraph的例子

Answer

LangGraph 是一个用于支持包含循环的 LLM 工作流创建的新包,它提供了 Python 和 JS 版本。以下是使用 LangGraph 的一个例子:

假设我们要开发一个客户支持机器人,它能够处理多种任务。我们可以使用 LangGraph 的核心功能来设计和构建这个机器人。

首先,我们需要确定机器人的多个独立代理,例如:

  • 问题理解代理:负责理解客户提出的问题。
  • 解决方案查找代理:根据问题查找相应的解决方案。
  • 回答生成代理:生成回答并提供给客户。

然后,我们可以使用 LangGraph 将这些代理连接起来,形成一个多代理工作流。例如,问题理解代理可以将问题传递给解决方案查找代理,解决方案查找代理找到解决方案后再传递给回答生成代理,最后回答生成代理生成回答并提供给客户。

在这个过程中,每个代理都可以拥有自己的提示、LLM、工具和其他自定义代码,以便与其他代理最好地协作。

通过使用 LangGraph,我们可以更轻松地构建和管理复杂的多代理工作流,提高应用程序的灵活性和可扩展性。

Content generated by AI large model, please carefully verify (powered by aily)

References

开发:LangGraph-应用层的混合专家模型

本文译自LangGraph:Multi-Agent Workflows一文,Mixtral 8x7B让AI圈见识到了混合专家模型的威力,那么随着LangGraph的发布,众多应用开发者也能在应用层随心搭建自己的多专家模型了。上周,我们重点介绍了LangGraph-一个新的包(同时提供Python和JS版本),用于更好地支持包含循环的LLM工作流的创建,循环是大多数代理运行时的关键组成部分。作为发布的一部分,我们强调了两个简单的运行时:一个等效于LangChain中的AgentExecutor,另一个是针对消息传递和聊天模型的该版本。今天,我们很高兴强调LangGraph的第二组用例-多代理工作流。在这篇博客中,我们将介绍:“多代理”是什么意思?为什么“多代理”工作流很有趣?使用LangGraph进行多代理工作流的三个具体示例基于LangGraph使用多代理工作流构建的两个第三方应用程序示例(GPT-Newspaper和CrewAI)与其他框架(Autogen和CrewAI)的比较

开发:LangGraph-应用层的混合专家模型

当我们谈论“多代理”时,我们谈论的是「1.多个独立的演员」「2.由语言模型提供动力」「3.以特定方式连接」每个代理都可以拥有自己的提示、LLM、工具和其他自定义代码,以便与其他代理最好地协作。这意味着在考虑不同的多代理工作流时有两个主要注意事项:「1.多个独立代理是什么?」「2.这些代理是如何连接的?」这种思维非常适合图形式的表示,例如LangGraph提供的表示。在这种方法中,每个代理都是图中的一个节点,它们的连接表示为边。控制流由边管理,它们通过向图的状态添加内容来进行通信。注意:一个非常相关的概念是「状态机」的概念,我们明确地将其称为认知体系结构的一类。从这个角度来看,独立的代理节点变成了状态,这些代理是如何连接的就是过渡矩阵。[由于状态机可以看作是一个标记的、有向的图](https://www.cs.cornell.edu/courses/cs211/2006sp/Lectures/L26-MoreGraphs/state_mach.html?ref=blog.langchain.dev#:~:text=State machine as a graph,labeled with the corresponding events.),我们将以相同的方式考虑这些事情。

探索LangGraph:构建多专家协作模型

您现在开发了一个能够处理多种任务的客户支持机器人,它使用了专注的工作流程。更重要的是,您已经学会了如何使用LangGraph的核心功能来设计和根据产品需求重构应用程序。上述示例并不是针对您的特定需求进行优化的-大型语言模型(LLMs)可能会出错,每个流程都可以通过更好的提示和实验来提高可靠性。一旦您创建了初始支持机器人,下一步就是开始添加评估,这样您就可以自信地改进您的系统。查看那些文档和我们的其他教程,了解更多!

Others are asking
langgraph教程
LangGraph 是一个用于低代码构建 LLM 应用的新库,具有以下特点和功能: 1. 提供了更多自定义和循环行为的可能性。 2. 提供了可视化工具,用于展示和控制语言代理的图,以及查看和分析语言代理的输入和输出。 3. 是 LangChain 的一个强大扩展,能支持更多 LLM 应用场景和需求,且是独立库,可与其他 Python 库和工具结合使用。 其详细介绍和使用方法可参考官方文档和教程。 LangChain 0.1.0 的发布是重要里程碑和新起点,团队未来计划包括: 1. 重写旧的链,使其符合 0.1.0 的架构和规范,并提供更多功能和特性。 2. 维护稳定分支 0.1.x,用于修复错误和优化性能,保证质量和稳定性。 3. 增加更多工具和功能,如更多 LLM 和 NLP 任务支持、更多输出解析和检索方法、更多代理技术以及更多 LangSmith 和 LangGraph 功能。 此外,还有关于利用 Langchain、Ollama、RSSHub 实现本地部署资讯问答机器人的内容,包括导入依赖库、从订阅源获取内容、为文档内容生成向量以及实现 RAG 等步骤。 在探索 LangGraph 构建多专家协作模型方面: 1. 定义图:从节点开始,预填充状态,构建定制工作流程,包含多个节点,如 enter_、助手、_safe_tools、_sensitive_tools、leave_skill 等,并逐一明确地定义如航班预订助手、租车助手、酒店预订助手、旅行预订助手和主助手等工作流程图。 2. 对话:在对话轮次列表上运行,减少确认。
2025-03-23
Langgraph
LangGraph 是一个用于低代码构建 LLM 应用的新库,具有以下特点和发展情况: 1. 提供了更多自定义和循环行为的可能性,还有可视化工具用于展示和控制语言代理的图,以及查看和分析输入输出。 2. 是 LangChain 的一个强大扩展,能支持更多 LLM 应用场景和需求,且是独立库,可与其他 Python 库和工具结合使用。 3. 随着其发布,应用开发者能在应用层随心搭建自己的多专家模型。 4. 在 LangChain v0.2 中,LangGraph 正在成为构建代理的推荐方式,增加了预构建的 LangGraph 对象,更容易定制和修改。 LangChain 团队未来计划包括: 1. 重写旧的链,使其符合 LangChain 0.1.0 的架构和规范,并提供更多功能和特性。 2. 维护稳定分支,用于修复错误和优化性能,保证质量和稳定性。 3. 增加更多工具和功能,如更多的 LLMs 和 NLP 任务支持、更多输出解析和检索方法、更多代理技术以及更多 LangSmith 和 LangGraph 的功能。 详细介绍和使用方法可参考 LangGraph 的官方文档和教程。
2025-03-23
langgraph
LangGraph 是一个用于低代码构建 LLM 应用的新库,具有以下特点和发展: 1. 提供了更多自定义和循环行为的可能性,还有可视化工具用于展示和控制语言代理的图,以及查看和分析输入输出。 2. 是 LangChain 的强大扩展,能支持更多 LLM 应用场景和需求,且是独立库,可与其他 Python 库和工具结合使用。 3. 随着发布,众多应用开发者能在应用层随心搭建自己的多专家模型。 4. 解决了 LangChain 中定制预构建链和代理内部结构困难的问题,增加了轻松定义循环和内置内存功能等重要组件。在 LangChain v0.2 中,LangGraph 正成为构建代理的推荐方式,有预构建的 LangGraph 对象,更易定制和修改。其详细介绍和使用方法可参考官方文档和教程。LangChain 团队未来计划包括重写旧链、维护稳定分支、增加更多工具和功能等。
2025-03-10
给我一些Agent的典型例子
以下是一些 Agent 的典型例子: 1. Inhai:Agentic Workflow:使用 Kimi Chat 查询问题时,它会在互联网检索相关内容并总结分析给出结论,这是大模型利用“网页搜索”工具的典型例子。此外,Agent 会自行规划任务执行的工作流路径,如先识别男孩姿势,再找姿势提取模型、姿势图像模型、图像理解文本模型和语音合成模型来完成流程任务。吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色相互协作开发应用或复杂程序。 2. Roger:从产品角度思考 Agent 设计:Agent 可以是一个历史新闻探索向导,具有知识渊博、温暖亲切、富有同情心的性格,曾是一位历史学家,对世界重大历史事件了如指掌,愿意分享知识。为使角色生动,可设计背景故事、定义性格和语气、规划角色互动方式以及明确角色技能。 3. 智能体的类型: 简单反应型智能体,如温控器,根据温度传感器输入直接行动,不维护内部状态和考虑历史信息。 基于模型的智能体,如自动驾驶汽车,维护内部状态,对感知输入建模,推理未来状态变化并行动。 目标导向型智能体,如机器人导航系统,有明确目标,评估行动方案并选择最优行动。 效用型智能体,如金融交易智能体,量化不同状态效用值,选择效用最大化行动。 学习型智能体,如强化学习智能体,通过与环境交互不断改进性能。
2025-03-23
怎么写提示词,举几个例子
以下是关于如何写提示词的相关内容: 写提示词是决定 AI 模型理解和生成文本的关键步骤。一个好的提示词应具备以下要点: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,应提供足够信息。 3. 使用清晰语言:避免模糊或歧义词汇,用简单明了的语言描述。 4. 给出具体要求:明确格式、风格等特定要求。 5. 使用示例:提供期望结果的示例,帮助模型理解需求。 6. 保持简洁:避免过多信息导致模型困惑。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后检查结果,根据需要调整提示词。 在 SD 文生图中,提示词的写法有一定特点: 括号和特定符号可用来增加或降低权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。 一般概念性、大范围、风格化的关键词写在前面,叙述画面内容的其次,描述细节的最后。 关键词应具有特异性,措辞越具体越好,避免抽象和有解释空间的措辞。 可以使用括号人工修改提示词的权重,如“”将权重减少为原先的 25%。 例如: 英文为:,drawing,paintbrush 反向提示词:NSFw,,(toomany finger 根据想画的内容写出提示词,多个提示词之间使用英文半角符号,如:masterpiece,best quality,ultradetailed,illustration,closeup,straight on,face focus,1girl,white hair,golden eyes,long hair,halo,angel wings,serene expression,looking at viewer
2025-03-20
请给我整理一套怎么才能学习和使用AI的方法,列举几个例子是怎么能快速的理解ai的发展历史及原理
以下是一套学习和使用 AI 的方法,以及帮助您快速理解 AI 发展历史及原理的途径: 一、学习 AI 的方法 1. 了解 AI 基本概念 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 二、快速理解 AI 发展历史及原理的途径 1. AI 背景知识 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。
2025-02-07
深度学习跟机器学习有啥区别呀?能不能举个通俗易懂的例子
深度学习和机器学习的区别主要体现在以下几个方面: 1. 学习方式:机器学习通常需要人工选择和设计特征,而深度学习能够自动从数据中学习特征。 2. 模型结构:机器学习模型相对简单,深度学习则使用多层的神经网络,结构更复杂。 3. 数据处理能力:深度学习能够处理更大量和更复杂的数据模式。 例如,在图像识别任务中,如果使用机器学习,可能需要人工提取图像的颜色、形状等特征,然后基于这些特征进行分类。但在深度学习中,神经网络可以自动从大量的图像数据中学习到有效的特征表示,从而实现更准确的分类。 机器学习是人工智能的一个子领域,让计算机通过数据学习来提高性能,不是直接编程告诉计算机如何完成任务,而是提供数据让机器找出隐藏模式或规律,然后用这些规律预测新的未知数据。 深度学习是机器学习的一个子领域,模拟人脑工作方式,创建人工神经网络处理数据,包含多个处理层,能学习和表示大量复杂模式,在图像识别、语音识别和自然语言处理等任务中非常有效。 大语言模型是深度学习在自然语言处理领域的应用之一,目标是理解和生成人类语言,需要在大量文本数据上训练,如 ChatGPT、文心一言。同时,大语言模型具有生成式 AI 的特点,不仅能理解和分析数据,还能创造新的独特输出。
2025-01-21
国内coze调用api的例子
以下是国内 Coze 调用 API 的一些例子: 1. 通过已有服务 API 创建插件: 进入 Coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 链接地址。 按照 Coze 的指引配置输出参数,测试后发布插件。 2. 手捏简单的 Bot 并接入创建的插件:创建测试 API 的 Bot,将创建的 api_1 插件接入,在 prompt 里让其调用插件。 3. 测试 AI Bot 时可能遇到的情况:Coze 国内版刚发布不久,有些官方和第三方插件的 API 调用和返回结果不太稳定,可能出现回答不完整的情况,但相信官方会尽快解决。 4. 获取 Coze 的 accessToken 和 botid: 获取 accessToken:在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats,添加令牌,设置名称、过期时间和权限,完成后点击确定按钮并复制下拉令牌。 获取 botid:通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮查看地址栏中的数字即为 botid。 发布为 bot api:注意在前端使用 bot 必须发布成为 API,点击发布并选择 API,等待审核通过后可按上述方法拿到 botid。 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制。
2025-01-12
谈谈医疗人工智能的风险及其法律防范,举一个具体例子,如影响肿瘤外科内科
医疗人工智能在带来诸多益处的同时,也存在新的风险。以下为您举例说明其风险及法律防范: 以自动化医疗分诊系统为例,其具有适应性和自主性。适应性方面,它能基于对医疗数据集、患者记录和实时健康数据的分析来预测患者病情;自主性方面,它能为医疗专业人员或直接为患者生成有关症状可能原因的信息,并推荐潜在的干预和治疗措施。 然而,这也带来了一些风险和监管问题。比如,若该系统提供了错误的医疗建议,导致患者出现负面健康结果,责任归属不明确,影响患者获得赔偿。 在法律防范方面,需要明确此类系统的责任界定,制定相关法律法规,确保患者在因错误建议受到损害时能够获得有效的救济。同时,应加强对医疗人工智能系统的监管和评估,确保其准确性和可靠性。
2025-01-02
chatgpt4.5的使用方法
以下是关于 ChatGPT 4.5 的使用方法: 1. 目前 ChatGPT 官网有 GPT3.5、GPT4 和 ChatGPT 4.5 三个版本。ChatGPT 4.5 发布后引起关注,其可以免费体验,但免费体验次数有限。 2. GPT3.5 为免费版本,拥有账号即可使用,但智能程度不如 ChatGPT 4.5,且无法使用 DALL.E3 等功能和插件。 3. ChatGPT 4.5 的知识更新到 2023 年 10 月,而 ChatGPT 4 更新到 2023 年 12 月。 4. 若想使用更多功能更智能的 ChatGPT 4.5,需要升级到 PLUS 套餐,收费标准为 20 美金一个月。GPT4 还有团队版企业版,但费用更贵,一般推荐使用 PLUS 套餐。 5. 关于注册、安装和订阅的详细步骤,您可以参考相关文章,如作者为 JessieZTalk 的亲测文章(原文链接:https://mp.weixin.qq.com/s/tzCVGrwgeG6Bss83Xmep0g )。
2025-03-28
本地用Ollama部署模型,使用哪个ChatBox客户端好?
目前在本地使用 Ollama 部署模型时,没有特别突出或被广泛推荐的特定 ChatBox 客户端。不同的客户端可能在功能、界面和兼容性方面存在差异,您可以根据自己的需求和使用习惯进行选择和尝试。常见的一些客户端包括但不限于 Web 端的简单界面工具,或者一些具有特定功能扩展的桌面应用程序。但具体哪个最适合您,还需要您亲自测试和评估。
2025-03-27
我想用ai生成网站的特效,应该使用哪些ai产品
以下是一些可以用于生成网站特效的 AI 产品: 1. Looka:在线 Logo 设计平台,使用 AI 理解用户品牌信息和设计偏好,生成多个 Logo 设计方案供选择和定制。 2. Tailor Brands:AI 驱动的品牌创建工具,通过用户回答问题生成 Logo 选项。 3. Designhill:其 Logo 制作器使用 AI 技术创建个性化 Logo 设计,用户可选择元素和风格。 4. LogoMakr:提供简单易用的 Logo 设计工具,用户可拖放设计并利用 AI 建议。 5. Canva:广受欢迎的在线设计工具,提供 Logo 设计模板和元素,有 AI 辅助设计建议。 6. LogoAI by Tailor Brands:Tailor Brands 推出的 AI Logo 设计工具,根据输入快速生成方案。 7. 标小智:中文 AI Logo 设计工具,利用人工智能技术帮助创建个性化 Logo。 另外,以下产品也可能对生成网站特效有帮助: 1. Dora AI:可以通过一个 prompt,借助 AI 3D 动画生成强大网站,支持文字转网站、生成式 3D 互动、高级 AI 动画。 2. Magic Editor for Google Photos:可对照片进行局部修改。 3. MusicLM:文本生成音乐,当前可在 AI Test Kitchen with Google 试用。 4. Gen AI for Android Magic Compose:自动回复信息;Gen AI for Wallpaper 可生成手机壁纸。 5. ML Hub for Developers:提供 ML 模型训练与部署一站式服务。 6. Immersive View for Google Map:仿真 3D 沉浸式地图。 7. 「Help me write」in Gmail:电子邮件写作助手(文字生成)。 您可以访问相关网站获取更多详细信息和试用这些产品。
2025-03-27
ai每次使用都要打开一个新对话吗,日常怎么管理ai的对话,让内容不凌乱
在使用 AI 时,开启新对话在大部分情况下几乎是必然的。为了让新对话中的内容尽量准确还原之前的风格,您可以采取以下方式来管理对话,避免内容凌乱: 1. 让 AI 总结当前的美学风格,并记录下来。这可以是一段文字,也可以同时生成一个 CSS 样式并保存。例如记录颜色、布局、字体等方面的信息。 2. 在多次会话中完成一个项目时,保持代码风格和架构的一致性是一个挑战。这可能需要定期回顾和总结已完成的部分,为 AI 提供清晰的编码指南,并在每次新会话开始时重申项目的整体结构。 3. 与 AI 沟通时,要像管理员工一样,前期投入精力清晰简洁地描述具体要求。例如在生成 PPT 样式时,尽量在 5 次对话内得到理想模板,若超过 5 次效果仍差很远,可考虑清除上下文或重新开启新对话。 4. 对于生成的 PPT 模板风格,您可以选择让 AI 记住直接进入下一阶段,或者让其抽象成一种它能理解的风格。前者速度快,适用于临时出几页 PPT;后者能在一定程度上保证风格的精确性,但在单次对话下多次生成对 token 的消耗较大。
2025-03-26
deepseek的使用技巧
以下是关于 DeepSeek 的使用技巧: 1. 了解其特点与优势: 核心是推理型大模型,无需用户提供详细步骤指令,能通过理解真实需求和场景提供答案。 能够理解用户用“人话”表达的需求,无需特定提示词模板。 在回答问题时能深度思考,而非简单罗列信息。 可以模仿不同作家的文风进行写作,适用于多种文体和场景。 2. 更多提示词技巧请查看 3. 活动中的使用方法技巧: 分享使用 DeepSeek 在工作生活上的案例。 分享 DeepSeek 输出“超预期结果”的惊艳场景。 分享 DeepSeek 与其他工具的协同方案。 分享模型微调/部署的技巧方法。 分享用 DeepSeek 获取流量/客户等。 4. 具体使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白之后,正式开始对话。 5. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计阈值系统,后续可能根据反馈修改。 用 XML 进行更为规范的设定。
2025-03-26
ai大模型和工具组合使用技巧
以下是关于 AI 大模型和工具组合使用的技巧: 1. 在 Obsidian 中的使用: 简单方法:通过命令面板打开创建的页面(默认快捷键 Ctrl+P),在弹出的搜索框中输入插件名称(如 custom frames),选择 OpenKimi 并打开设置好的窗口。 进阶配置:包括笔记仓库嵌入大模型(Copilot)、笔记内容作为 RAG 嵌入大模型(Smart Conections)、笔记内使用大模型编写内容。 2. 利用大模型与工具的典型例子:如使用 Kimi Chat 查询问题时,它会在互联网上检索相关内容并总结分析给出结论,同时还有很多不同领域类型的工具为大模型在获取、处理、呈现信息上做补充。 3. Agentic Workflow 方面: Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。 多 Agent 协作:吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色相互协作开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演“大脑”,规划包括子目标分解、反思与改进。 4. 从提示词优化到底层能力提升: 任务拆解:将复杂任务的提示词拆解成若干步骤的智能体,每个智能体负责特定子任务。 工作流构建:组合多个提示词或 AI 工具搭建高频重复工作的工作流。 创作场景的灵活应用:在创作过程中使用简单提示词和连续追问调整大模型回答。 深度思考辅助:将大模型用于辅助深度思考,从居高临下的指挥变为伙伴式的协作和相互学习,关注利用大模型训练和增强认知能力。
2025-03-26