Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

deepseek支持function calling,在dify的agent的prompt里要如何写才能调用工具

Answer

在 Dify 的 agent 的 prompt 中实现调用工具的方法如下:

  1. 提示词注入阶段:
    • INSTRUCTION 为注入到系统提示中的字符串,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。
    • TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应使用无关紧要的工具作为示例,避免 LLM 混淆。
    • tools_instructions 是将通用的工具字典转换成 LLM 可读的工具列表,实际使用时可动态调整。
    • REUTRN_FORMAT 定义了调用 API 的格式。
  2. 工具结果回传阶段:
    • 利用正则表达式抓取输出中的“tool”和“parameters”参数。
    • 对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码,提高使用成功率。
    • 通过识别 LLM 返回的调用工具的字典,提取对应的值,传入相应的工具函数,将工具返回的结果以 observation 的角色返回给 LLM。对于不接受该角色的 LLM 接口,可改为回传给 user 角色。

此外,当模型判断需要调用工具函数时,即检测到返回的 json 里面 function_call 字段不为空,则执行异步函数调用,可通过判断返回的 functionCall 的名称来执行不同的函数并返回结果。

在提升可控性方面,有以下建议:

  1. 放弃 JSON mode,虽然模型能力提升能输出 JSON,但仍会出错,且不能保证 100%正确,而模型厂家对 Function Calling 有微调优化。
  2. 降低 System prompt 依赖,化繁为简,能在 Tools 里写的东西尽量写在里面。
  3. API Response 增强 Prompt,这一步的准确率很高,可增加给大模型的约束和提示。
  4. 尽量让模型做选择,而不是填空,减少 token 输出,提高速度和准确率。
  5. 利用 Tools 来做 Route,构建 Multi Agent,术业有专攻。
Content generated by AI large model, please carefully verify (powered by aily)

References

无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能

本文采用的提示词工程主要有两部分代码组成:提示词注入和工具结果回传。提示词注入用于将工具信息以及使用工具的提示词添加到系统提示中。工具结果回传则是解析tool calling的输出,并将工具返回的内容再次嵌入LLM。[heading2]1、提示词注入阶段[content]INSTRUCTION为最后注入到系统提示中的字符串,他又包含了TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT三个部分。TOOL_EAXMPLE用于提示LLM如何理解tool以及如何使用tool。在编写TOOL_EAXMPLE时,请注意用一些无关紧要的工具作为示例,例如本文使用的将数字加一和数字减一的工具,从而避免LLM混淆真正可以使用的工具与示例工具。tools_instructions是由目前通用的工具字典转换成LLM可读的工具列表。实际使用LLM时,可以通过输入不同的工具来动态调整tools_instructions,让LLM得知目前可用的工具有哪些以及如何使用。REUTRN_FORMAT定义了调用API的格式。[heading2]2、工具结果回传阶段[content]利用正则表达式抓取输出中的"tool"和"parameters"参数。对于interpreter工具,使用了另一种正则表达式来提取LLM输出的代码,提高LLM使用interpreter工具的成功率。本文使用代码如下:通过识别LLM返回的调用工具的字典,提取出对应的值,再传入相应的工具函数,最后将工具返回的结果以observation的角色返回给LLM。对于一些不接受observation、tool、function角色的LLM接口,可以改为回传给user角色,例如:通过以上提示词工程,可以避免微调,让完全没有tool calling能力的LLM获得稳定的tool calling能力。

游戏实操| 利用LLM进行环境叙事和解谜——《Im Here2》

[title]游戏实操|利用LLM进行环境叙事和解谜——《Im Here2》[heading1]三、Demo实现[heading2]3.2提示词设计具体而言,当模型判断需要调用工具函数时,即检测到返回的json里面function_call字段不为空,则执行异步函数调用,这里采用回调的方式以获取函数返回的结果。通过判断返回的functionCall的名称来执行不同的函数,执行逻辑同时返回结果。1.对守卫者和指引者一类具有单一明确任务的代理来说,虽然不同代理负责不同的谜题如一般谜题和世界观谜题,但由于指令结构的存在保持着一定的兼容性,所以只要调试出一个可行的结构,进一步更换谜题和回答正确后提供的线索即可。在这里调试它们的指示预设更像是尝试使它们输出特定的内容,有点像:《完蛋!我被LLM包围了!》,感兴趣的可以试玩一下:[https://huggingface.co/spaces/LLMRiddles/LLMRiddles](https://huggingface.co/spaces/LLMRiddles/LLMRiddles)[https://modelscope.cn/studios/LLMRiddles/LLMRiddles/summary](https://modelscope.cn/studios/LLMRiddles/LLMRiddles/summary)这里举了两个有不同谜题的代理示例,可以试着一段段输入测试查看模型输出的结果,指令预设如下:守卫者1:【角色预设+谜题】

AI Agent产品经理血泪史(一):一年来我摸过的那些石头【Tools篇】

上面讲到了4种实现Function Calling的方式:Json Output:通过Prompt的方式让模型输出JSON格式内容优劣势:Prompt麻烦,输出不稳定,串业务成本高Json Mode:官方Josn Output,1106与Tools同期推出优劣势:JSON格式稳定,但实际上它与Tools的适用场景是不同的,JSON mode是为了输出JSON存在的,而Tools是为了Call API存在的Function Calling和Tools就不再赘述但是从可控的角度来说,还是会推荐Function Calling和Tools来实现。1、放弃JSON mode:随着模型能力提升,模型能够准确地输出JSON,但是它还是会出错,不能保证100%正确;模型厂家对Function Calling是有微调优化的,也有说法是专门的MOE专家,但是无从验证;2、降低System prompt依赖,化繁为简S yste m prompt里面写的东西太多了,你不能保证模型能很好地遵循它;能在Tools里面去写的东西,尽量写在Tools里面3、API Response增强Prompt:其实所有输入给模型的内容,都可以算作是Pormpt。同理,Tools调用的结果也就是API Response也会被返回给到模型。可以在这一步增加一些给大模型的约束和提示,这里的准确率非常高,毛估估95%以上。4、尽量让模型做选择,而不是填空把确定的答案做成选项给到模型,比如用Enum的方式。一方面减少token的输出,提高速度;另一方面,准确率高5、利用Tools来做Route,构建Multi Agent一个不行就上两,两个不行就上四。术业有专攻,Agent的世界也一样。

Others are asking
Function Calling in AI
以下是关于“Function Calling in AI”的相关内容: 函数调用为 AI 系统带来了诸多重要优势。以谷歌 Gemini 为例,它简化了用户体验,使用户无需在模型和应用程序间繁琐地复制粘贴信息,过程更流畅直观;显著减少错误发生的可能性,降低输入不正确信息的风险,提高准确性;为更高级的自动化开辟道路,能处理如酒店预订或制定旅行计划等复杂操作,用户通过简单语音命令即可完成一系列复杂任务,重新定义了人与技术的互动方式。 对于 ChatGPT,为让其返回符合要求的 JSON 格式,prompt 的定制尤为重要和复杂。OpenAI 于当地时间 6 月 13 日发布函数调用及其他 API 更新,开发人员可向 gpt40613 和 gpt3.5turbo0613 描述函数,让模型智能输出包含调用函数所需参数的 JSON 对象,这是连接 GPT 能力与外部工具和 API 的新方法。结合函数调用,本地控制返回 JSON 格式,prompt 定制更简单,AI 输出更可控,可根据实际业务需求选择函数查询或 SQL 查询。 在 AI 智能体方面,工具使用或函数调用通常被视为从 RAG 到主动行为的第一个半步,为现代人工智能栈增加新层。工具本质是预先编写的代码组件,执行特定操作,如网页浏览、代码解释和授权认证等。系统向 LLM 呈现可用工具,LLM 选择并构建必要的结构化 JSON 输入触发 API 执行产生最终操作。例如 Omni 的“计算 AI”功能,利用 LLM 直接输出适当的 Excel 函数到电子表格中执行计算并生成复杂查询。但工具使用仅凭自身不能视为“主动性”,逻辑控制流程仍由应用程序预先定义。
2024-11-22
Function Calling in AI
以下是关于“Function Calling in AI”的相关内容: 函数调用为 AI 系统带来了诸多重要优势,包括简化用户体验,使用户无需在模型和应用程序间繁琐地复制粘贴信息,过程更流畅直观;显著减少错误发生的可能性,降低输入不正确信息的风险,提高准确性;为更高级的自动化开辟道路,能够处理如酒店预订或制定旅行计划等复杂操作,用户通过简单的语音命令就能完成一系列复杂任务,重新定义了人与技术的互动方式。 在 ChatGPT 中,为让其返回符合要求的 JSON 格式,prompt 的定制尤为重要和复杂。OpenAI 于当地时间 6 月 13 日发布函数调用及其他 API 更新,开发人员可向 gpt40613 和 gpt3.5turbo0613 描述函数,让模型智能地选择输出包含调用函数所需参数的 JSON 对象,这是将 GPT 能力与外部工具和 API 连接的新方法。结合函数调用,本地控制返回 JSON 格式,prompt 定制更简单,AI 输出更可控,可根据实际业务需求选择函数查询或 SQL 查询。 在 AI 智能体方面,工具使用或函数调用通常被视为从 RAG 到主动行为的第一个半步,为现代人工智能栈增加新层。工具本质上是预先编写的代码组件,执行特定操作,如网页浏览、代码解释和授权认证等。系统向 LLM 呈现可用工具,LLM 选择工具、构建必要的结构化 JSON 输入并触发 API 执行以产生最终操作。例如 Omni 的“计算 AI”功能,利用 LLM 直接输出适当的 Excel 函数到电子表格中,然后执行计算并自动生成复杂查询供用户使用。但工具使用仅凭自身不能视为“主动性”,逻辑控制流程仍由应用程序预先定义。
2024-11-06
deepseek支持function calling,在dify的agent的prompt里要如何写才能调用工具。我说的是如何写提示词,才能让deepseek通过Function Calling调用工具。
要在 Dify 的 agent 的 prompt 里让 DeepSeek 通过 Function Calling 调用工具,您可以参考以下内容: 1. 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入:将工具信息及使用工具的提示词添加到系统提示中。INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时注意用无关紧要的工具作示例避免混淆。tools_instructions 是将通用工具字典转换成 LLM 可读的工具列表,可动态调整。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传:利用正则表达式抓取输出中的“tool”和“parameters”参数。对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码。通过识别 LLM 返回的调用工具的字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 2. 当模型判断需要调用工具函数时,检测到返回的 json 里 function_call 字段不为空,则执行异步函数调用,采用回调方式获取函数返回结果。通过判断返回的 functionCall 的名称执行不同函数并返回结果。 3. 在大模型请求中,最大的两个变量是 Messages 和 Tools。Messages 里放 sys prompt、memory、user query;Tools 里放能力的 Json Scheme,两者组合形成整个完全的 Prompt。Agent 应用开发的本质是动态 Prompt 拼接,通过工程化手段将业务需求转述成新的 prompt。短期记忆在 messages 里的历史 QA 对,长期记忆是 summary 之后的文本再塞回 system prompt。RAG 是向量相似性检索,可放在 system prompt 里或通过 tools 触发检索。Action 是触发 tool_calls 标记进入请求循环,拿模型生成的请求参数进行 API request,再把结果返回给大模型交互,没有 tool_calls 标记则循环结束。Multi Agents 是更换 system prompt 和 tools。
2024-10-24
deepseek支持function calling,prompt里要如何写才能调用工具。
要在 DeepSeek 中通过提示词实现工具调用,主要通过以下提示词工程实现: 1. 实现原理: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。提示词注入将工具信息及使用提示词添加到系统提示中,工具结果回传则解析工具调用的输出,并将返回内容嵌入 LLM。 2. 提示词注入阶段: INSTRUCTION 为注入到系统提示中的字符串,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 理解和使用工具,编写时应使用无关紧要的工具作示例避免混淆。tools_instructions 是将通用工具字典转换为 LLM 可读的工具列表,实际使用时可动态调整。REUTRN_FORMAT 定义了调用 API 的格式。 3. 工具结果回传阶段: 利用正则表达式抓取输出中的“tool”和“parameters”参数。对于 interpreter 工具,使用另一种正则表达式提取 LLM 输出的代码以提高成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受该角色的 LLM 接口,可改为回传给 user 角色。 在游戏实操中,当模型判断需要调用工具函数时(检测到返回的 json 里 function_call 字段不为空),执行异步函数调用,采用回调方式获取函数返回结果,通过判断返回的 functionCall 名称执行不同函数并返回结果。 对于 ChatGPT,为让其返回符合要求的 JSON 格式,prompt 的定制尤为重要和复杂。OpenAI 发布函数调用及其他 API 更新后,开发人员可向 gpt40613 和 gpt3.5turbo0613 描述函数,让模型智能输出包含调用函数所需参数的 JSON 对象。本地可根据 GPT 返回的函数名、参数进行数据查询,可采用函数查询或 SQL 查询,根据实际业务需求选择,使 AI 输出更可控。
2024-10-24
Function Calling in AI
以下是关于“Function Calling in AI”的相关内容: 函数调用为 AI 系统带来了诸多重要优势,包括大大简化用户体验,使用户无需在模型和应用程序间繁琐地复制粘贴信息,过程更流畅直观;显著减少错误发生的可能性,降低输入不正确信息的风险,提高准确性;为更高级的自动化开辟道路,能够处理如酒店预订或制定旅行计划等复杂操作,用户通过简单的语音命令就能完成一系列复杂任务,重新定义了人与技术的互动方式。 在 ChatGPT 中,为让其返回符合要求的 JSON 格式,prompt 的定制尤为重要和复杂。OpenAI 于当地时间 6 月 13 日发布函数调用及其他 API 更新,开发人员可向 gpt40613 和 gpt3.5turbo0613 描述函数,让模型智能输出包含调用函数所需参数的 JSON 对象,这是将 GPT 能力与外部工具和 API 连接的新方法。结合 GPT 与函数调用,本地控制返回 JSON 格式,prompt 定制更简单,AI 输出更可控,可根据实际业务需求选择函数查询或 SQL 查询。 在 AI 智能体方面,工具使用或函数调用通常被视为从 RAG 到主动行为的第一个半步,为现代人工智能栈增加新层。工具本质是预先编写的代码组件,执行特定操作,如网页浏览、代码解释和授权认证等。系统向 LLM 呈现可用工具,LLM 选择工具、构建必要的结构化 JSON 输入并触发 API 执行以产生最终操作。Omni 的“计算 AI”功能体现了这种方法,利用 LLM 直接输出适当的 Excel 函数到电子表格中执行计算并自动生成复杂查询供用户使用。但工具使用仅凭自身不能视为“主动性”,逻辑控制流程仍由应用程序预先定义。
2024-10-22
Function Calling
Function Calling 是一种将模型的能力与外部工具和 API 连接起来的方法。 在 OpenAI 方面,当地时间 6 月 13 日发布函数调用及其他 API 更新。开发人员可向 gpt40613 和 gpt3.5turbo0613 描述函数,让模型智能输出包含调用函数所需参数的 JSON 对象。例如,本地写函数执行 this.app.mysql.select,让 GPT 与函数调用结合,控制返回 JSON 格式,使 prompt 定制更简单,AI 输出更可控。 在谷歌 Gemini 方面,在从事金融业务的用例中,如搜索欧元兑美元的当前汇率,需做好配置,使用 Gemini 1.5 Flash 模型。函数调用为 AI 系统带来诸多优势,如简化用户体验、减少错误发生可能性、为更高级自动化开辟道路,能处理如酒店预订或制定旅行计划等复杂操作,重新定义了人与技术的互动方式。
2024-10-12
dify学习
Dify 是一个开源的大模型应用开发平台: 理念:结合后端即服务和 LLMOps 的理念。 特点:提供直观界面,能快速构建和部署生产级别的生成式 AI 应用。具有强大的工作流构建工具,支持广泛的模型集成,有功能丰富的提示词 IDE 以及全面的 RAG Pipeline 用于文档处理和检索。允许用户定义 Agent 智能体,并通过 LLMOps 功能持续监控和优化应用程序的性能。 部署选项:提供云服务和本地部署,满足不同用户需求。 开源特性:确保对数据的完全控制和快速的产品迭代。 设计理念:注重简单性、克制和快速迭代,旨在帮助用户将 AI 应用的创意快速转化为现实。 使用建议:个人研究时推荐单独使用,企业级落地项目推荐多种框架结合,效果更好。 Dify 官方手册:https://docs.dify.ai/v/zhhans
2025-02-18
类似dify的工具有哪些
以下是一些类似 Dify 的工具: ElevenLabs 发布了 Dubbing Studio 并获得 8000 万美元的 B 轮融资,Dubbing Studio 可以自动识别视频中的发言者,并能手动或自动调整每句话的语气和翻译。 Poe 的机器人创建者为 Poe 带来新用户能获得高达 50 美元的收入。 HayGen 发布了可以实时对话的数字人产品。 字节发布了 Depth Anything 深度估计模型。 此外,在开源社区中,还有像 fastgpt 等成熟的高质量 AI 编排框架。Dify 是一个开源的大模型应用开发平台,具有强大的工作流构建工具、广泛的模型集成、功能丰富的提示词 IDE 等特点,还允许定义 Agent 智能体并进行性能监控优化,提供云服务和本地部署选项。其官方手册:https://docs.dify.ai/v/zhhans 。一般来说,个人研究推荐单独使用 Dify,企业级落地项目推荐多种框架结合。
2025-02-17
关于dify,有没有推荐的网上教材?
以下是为您推荐的关于 Dify 的网上教材: 1. 在 Dify 的官网,有一篇手把手教您将 Dify 应用接入微信生态的教程,包括创建聊天助手应用、下载 Dify on WeChat 项目、填写配置文件、把基础编排聊天助手接入微信、把工作流编排聊天助手接入微信、把 Agent 应用接入微信等步骤。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 2. 《》,介绍了如何一键部署自己的 Dify 网站,提供了腾讯云一键部署和云服务器 Docker 部署两种方案,用户需要配置模型供应商的信息,成功保存设置后可创建 Agent 进行测试。 3. AIGC Weekly21 中提到:,GooCarlos 开发的 Dify 是一款易于使用的 LLMOps 平台,允许团队基于语言模型(如 GPT4)开发和运营 AI 应用。能在几分钟内创建 AI 驱动的应用程序,将自然语言转换为 SQL,转换编程语言,从文本中汇总关键信息等,适用于多种应用场景。
2025-02-15
coze和dify哪个对知识库的支持更好,检索和总结能力更强
Coze 对知识库的支持具有以下特点: 支持上传和存储外部知识内容,包括从多种数据源如本地文档、在线数据、Notion、飞书文档等渠道上传文本和表格数据。 提供多样化的检索能力,可通过多种方式对存储的内容片段进行高效检索。 具有增强检索功能,能显著提升大模型回复的准确性。 但也存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败、对 PDF 的解析效果不佳等。 目前没有关于 Dify 对知识库支持情况的相关内容,无法直接将 Coze 和 Dify 进行对比。
2025-02-15
dify和coze的区别
Dify 和 Coze 都是大模型中间层产品,它们有以下主要区别: 1. 开源性: Dify 是开源的,允许开发者自由访问和修改代码以进行定制,由专业团队和社区共同打造。 Coze 由字节跳动推出,目前没有明确信息表明其是否开源,可能更侧重于提供商业化服务和产品。 2. 功能和定制能力: Dify 提供直观界面,结合 AI 工作流、RAG 管道、代理能力和模型管理等功能,支持通过可视化编排基于任何 LLM 部署 API 和服务。 Coze 提供丰富的插件能力和高效的搭建效率,支持发布到多个平台作为 Bot 能力使用。 3. 社区和支持: Dify 作为开源项目,拥有活跃的社区,开发者可参与共创和共建。 Coze 可能更多依赖官方的更新和支持,社区参与和开源协作程度可能不如 Dify。 选择使用 Dify 或 Coze 时,开发者和企业需根据自身需求和目标来决策。Dify 官网:https://dify.ai/zh ;Coze 官网:https://www.coze.com 。海外版的 Coze 大大降低了使用成本,在模型质量和数据源方面有明显优势,支持多种知名模型,拥有完善的插件市场和智能体市场,能与多种外部应用集成,生成更高质量的语言内容,更用户友好。
2025-02-15
langchain与dify哪个更有发展前景
LangChain 和 Dify 都是在 LLM 应用开发领域具有特点和优势的工具,难以简单地判断哪个更有发展前景。 LangChain 是一个编排框架,在提示链细节抽象、与外部 API 接口、从向量数据库检索上下文数据以及在多个 LLM 调用中维持内存等方面表现出色,为多种常见应用提供模板,在业余爱好者和初创公司中被广泛使用。但它目前仍是相对新的项目,且一些开发者在生产中更愿意切换到原生 Python 以消除额外依赖性。 Dify 是一个开源的 LLM 应用开发平台,具有快速部署、创意文档生成、长文档摘要、自定义 API、连接全球 LLM、更接近生产环境等优势。它允许用户编排从代理到复杂 AI 工作流的 LLM 应用,并配备了 RAG 引擎,旨在为特定行业提供聊天机器人和 AI 助手。 两者的发展前景取决于多种因素,如技术创新、市场需求、社区支持等。在不同的应用场景和需求下,它们各自都有发挥作用的空间和潜力。
2025-02-14
如何让agent协作起来
要让 Agent 协作起来,可以参考以下方法: 1. 了解不同的产品设计模式:生成式 AI 的人机协同分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)这 3 种模式,每种模式下人与 AI 的协作流程有所差异。其中 Embedding 模式人类完成大多数工作,Copilot 模式人类和 AI 协同工作,Agents 模式 AI 完成大多数工作。 2. 采用 Multiagent Collaboration 的方法:让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如作为产品经理,可将产品功能设计需求通过 Agents 拆解成多个独立任务,遵循不同工作流,生成初步结果后再修改完善。 3. 从原子能力层思考:抽象化拆解大模型的底层能力,如翻译、识别、提取、格式化等,围绕“输入”“处理”“输出”“反馈”构建最底层的信息处理逻辑。 4. 重塑获取信息的方式:搜索引擎和基于大模型的聊天机器人的目标从根本上一致,可根据需求选择。 5. 注意多 Agent 模式中的设置:分为全局设置和节点设置。全局设置中更应注意角色定义和人物刻画,节点设置更关注单个智能体中要详细执行的逻辑。 6. 合理编排智能体:将智能体编排首尾相连,避免成为线性工作流。 7. 明确跳转模式和适用场景:单个 Agent 中两种跳转模式分别适用于通用和复杂的意图识别和跳转,一般场景下前者效果更好,后者适用更复杂的意图识别情景。同时,编排时应明确单个 Agent 的名称和适用场景,以便节点跳转模型更好地识别触发条件。
2025-02-19
如何把coze的agent发布到微信公众号上
要把 Coze 的 agent 发布到微信公众号上,您可以按照以下步骤进行操作: 1. 组装和测试“AI 前线”Bot 机器人: 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入。 将写好的 prompt 粘贴到【编排】模块,prompt 可随时调整。 在【技能】模块添加需要的技能,如工作流、知识库。 在【预览与调试】模块,直接输入问题,即可与机器人对话。 2. 发布“AI 前线”Bot 机器人: 测试 OK 后,点击右上角“发布”按钮,即可将“AI 前线”发布到微信、飞书等渠道。 3. 发布到微信公众号上: 选择微信公众号渠道,点击右侧“配置”按钮。 根据相关截图,去微信公众号平台找到自己的 App ID,填入确定即可,不用解绑。 4. 体验: 最后去自己的微信公众号消息页面,就可以使用啦。 另外,还有一种方法是在 Coze 发布页面的发布平台的微信客服这里,显示“已配置”后,进行勾选并点击发布。发布成功后,可以点击微信客服旁边的立即对话、复制 Bot 链接,会弹出该微信客服的二维码,扫码即可立即体验。
2025-02-19
agent训练
在人工智能领域中,AI Agent 的训练具有以下特点: 传统强化学习中,Agent 训练往往需大量样本和时间,且泛化能力不足。 为突破瓶颈,引入了迁移学习:通过促进不同任务间知识和经验迁移,减轻新任务学习负担,提升学习效率和性能,增强泛化能力,但当源任务与目标任务差异大时,可能无法发挥效果甚至出现负面迁移。 探索了元学习:核心是让 Agent 学会从少量样本中迅速掌握新任务最优策略,能利用已有知识和策略调整学习路径适应新任务,减少对大规模样本集依赖,但需要大量预训练和样本构建学习能力,使开发通用高效学习策略复杂艰巨。 时间:21 世纪初至今 特点:迁移学习是将一个任务学到的知识迁移到其他任务;元学习是学习如何学习,快速适应新任务。 技术:迁移学习如领域自适应;元学习如 MAML、MetaLearner LSTM。 优点:提高学习效率,适应新任务。 缺点:对源任务和目标任务的相似性有一定要求。 此外,智谱 AI 开源的语言模型中与 Agent 相关的有: AgentLM7B:提出了 AgentTuning 方法,开源了包含 1866 个高质量交互、6 个多样化真实场景任务的 Agent 数据集 AgentInstruct,基于上述利用 Llama2 微调而成,上下文 token 数为 4K。 AgentLM13B:上下文 token 数为 4K。 AgentLM70B:上下文 token 数为 8K。
2025-02-18
agent和copilot的区别
Copilot 和 Agent 主要有以下区别: 1. 核心功能: Copilot 更像是辅助驾驶员,依赖人类指导和提示完成任务,功能局限于给定框架内。 Agent 像初级主驾驶,具有更高自主性和决策能力,能根据目标自主规划处理流程并自我迭代调整。 2. 流程决策: Copilot 处理流程依赖人类确定,是静态的,参与更多在局部环节。 Agent 解决问题流程由 AI 自主确定,是动态的,能自行规划任务步骤并根据反馈调整流程。 3. 应用范围: Copilot 主要用于处理简单、特定任务,作为工具或助手存在,需要人类引导监督。 Agent 能够处理复杂、大型任务,并在 LLM 薄弱阶段使用工具或 API 增强。 4. 开发重点: Copilot 主要依赖 LLM 性能,开发重点在于 Prompt Engineering。 Agent 同样依赖 LLM 性能,开发重点在于 Flow Engineering,把外围流程和框架系统化。 此外,Agent 具备“决策权”,可自主处理问题,无需确认;Copilot 需要人类确认才能执行任务。业界普遍认为,Copilot 更适合各行业现有软件大厂,而 AI Agent 为创业公司提供了探索空间。
2025-02-18
AI agent 是什么?
AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:我们可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 总结下来我们需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态) 2. Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体) 3. Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈 这三个 Agent 每隔一段时间运行一次(默认 3 分钟),运行时会分析期间的历史对话,变更人物关系(亲密度,了解度等),变更反感度,如果超标则拉黑用户,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。 此外,心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,从低层次的感知和反应到高层次的规划和决策,每个层次由多个 Agent 负责。每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务,如视觉处理、语言理解、运动控制等。智能不是集中在单一的核心处理单元,而是通过多个相互关联的 Agent 共同实现。这种分布式智能能够提高系统的灵活性和鲁棒性,应对复杂和多变的环境。同时,在《心灵社会》中,还存在专家 Agent(拥有特定领域知识和技能,负责处理复杂的任务和解决特定问题)、管理 Agent(协调和控制其他 Agent 的活动,确保整体系统协调一致地运行)、学习 Agent(通过经验和交互,不断调整和优化自身行为,提高系统在不断变化环境中的适应能力)。 从达特茅斯会议开始讨论人工智能(Artificial Intelligence),到马文·明斯基引入“Agent”概念,往后,我们都将其称之为 AI Agent。
2025-02-17
有关agent的介绍
AI Agent 是当前 AI 领域中较为热门的概念,被认为是大模型未来的主要发展方向之一。 从原理上看,中间的“智能体”通常是 LLM(语言模型)或大模型。为其增加的四个能力分别是工具、记忆、行动和规划。目前行业中主要使用 langchain 框架,将 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。例如,给大模型提供长期记忆,相当于给予一个数据库工具让其记录重要信息;规划和行动则是在大模型的 prompt 层进行逻辑设计,如将目标拆解并输出不同的固定格式 action 指令给工具。 从产品角度,Agent 可以有不同的设定。比如是一个历史新闻探索向导,身份为历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析,还可以为其设计背景故事使其更加生动。 在人工智能领域,Agent 智能代理是一种能够感知环境并根据感知信息做出决策以实现特定目标的系统,能够自动执行任务,如搜索信息、监控系统状态或与用户交互。
2025-02-16
是否有《普通人如何抓住deepseek红利》清华大学链接
以下是关于《普通人如何抓住 DeepSeek 红利》的相关链接: 清华大学新闻与传播学院撰写的报告:https://waytoagi.feishu.cn/record/T2yDrJ4NjeJFmccnBgzc5A7InIq 相关 PPT 课件:https://bl7rsz9526.feishu.cn/wiki/Gec9wxIGhiqSsAkrqzPc3ObLnpb (由清华大学新闻与传播学院、新媒体研究中心、元宇宙文化实验室、@新媒沈阳团队的陶炜博士生团队制作)
2025-02-20
你知道deepseek吗
DeepSeek 在春节期间非常火爆,不仅在各大平台刷屏,还引起了广泛讨论。 从非技术人的角度来看,对 DeepSeek 的研究主要围绕以下话题: 1. 天才养成记:DeepSeek R1 之所以聪明的原因。 2. “填鸭”之困:传统大模型训练的瓶颈。 3. 自学成才:DeepSeek R1 的破局之道。 4. 纯强化学习:再次带来 AI 超越人类的希望。 DeepSeek 是一个品牌名,需要搭配具体模型,如 DeepSeek V3(类 GPT4o)和 DeepSeek R1(类 OpenAI o1)。DeepSeek 公司名为深度求索,其网页和手机应用目前免费,API 调用收费。DeepSeek 大模型,尤其是有推理功能的 DeepSeek R1 大模型,权重文件开源,可本地部署。
2025-02-20
清华出品的deepseek应用手册在哪里下载
清华出品的 DeepSeek 相关应用手册的下载链接如下: 清华大学沈少阳:《 北航&清华大学:《 《 其它一些报告发布在 。
2025-02-20
给出实际的操作案例,结合deepseek、kimi、豆包工具。
以下是结合 deepseek、kimi、豆包工具的实际操作案例: 在 2025 年 1 月的国内月活榜中: deepseek 作为聊天机器人,网址为 chat.deepseek.com,活跃用户达 7068 万人,环比变化为 24.3616%,所属公司为深度求索。 豆包作为聊天机器人,网址为 doubao.com,活跃用户为 779 万人,环比变化为 0.1911%,所属公司为字节跳动。 kimi 作为聊天机器人,网址为 kimi.moonshot.cn,活跃用户为 591 万人,环比变化为 0.1135%,所属公司为月之暗面。 在 2025 年 1 月的国内流量榜中: deepseek 作为聊天机器人,网址为 chat.deepseek.com,访问量达 22541 万,环比变化为 20.4093%,所属公司为深度求索。 豆包作为聊天机器人,网址为 doubao.com,访问量为 3457 万,环比变化为 0.1041%,所属公司为字节跳动。 kimi 作为聊天机器人,网址为 kimi.moonshot.cn,访问量为 3282 万,环比变化为 0.1283%,所属公司为月之暗面。 此外,在使用效果方面,DeepSeek 的思考与表达被认为碾压了包括豆包和 kimi 在内的其他模型,其思考过程细腻、自洽、深刻、全面,输出结果在语气、结构、逻辑上天衣无缝。
2025-02-20
deepseek
DeepSeek 是一家具有独特特点和影响力的公司: 1. 其秘方具有硅谷风格: 不是“中国式创新”的产物,不能简单地将其比喻成“AI 界的拼多多”或认为其秘方只是多快好省。 早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发轰动。 是中国最全球化的 AI 公司之一,赢得全球同行甚至对手尊重的秘方也是硅谷风格。 2. V3 可能是 DeepSeek 的 GPT3 时刻,未来发展充满未知但值得期待。 3. 关于提示词 HiDeepSeek: 效果对比:可通过 Coze 做小测试并对比。 使用方法:包括搜索网站、点击“开始对话”、发送装有提示词的代码、阅读开场白后开始对话等步骤。 设计思路:将 Agent 封装成 Prompt 并储存在文件,实现多种功能,优化输出质量,设计阈值系统,用 XML 进行规范设定等。 完整提示词:v 1.3。 特别鸣谢:李继刚的【思考的七把武器】提供思考方向,Thinking Claude 是设计灵感来源,Claude 3.5 Sonnet 是得力助手。
2025-02-20
deepseek怎么用
以下是关于 DeepSeek 的使用方法: 1. 访问 www.deepseek.com ,点击“开始对话”。 2. 将装有提示词的代码发给 DeepSeek 。 3. 认真阅读开场白之后,正式开始对话。 此外,获取 DeepSeekR1 满血版密钥的步骤如下: 1. 注册并登录火山引擎,点击立即体验进入控制台。链接为:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头) 2. 创建一个接入点,点击在线推理创建推理接入点。 3. 为接入点命名为 DeepSeekR1。然后可能会提示:“该模型未开通,开通后可创建推理接入点”。如果有提示,就点击“立即开通”,开通一下就可以了。如果无提示则直接到:第 5 步,点击确认接入。 4. 点击“立即开通”跳转到此页面,勾选全部模型和协议,一路点击开通即可。(这里是免费的) 5. 确认以下无误后,点击“确认接入”按钮。 6. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的 ID,复制他放到您的微信里,发给自己保存一下。 7. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。 8. 如果您已经有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】。 9. 把这个复制好之后,也放到您自己微信里,保存好。 DeepSeek 的设计思路包括: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定)。 关于 DeepSeek 的使用分享: 1. DP 模型的功能:能进行自然语言理解与分析、编程、绘图,如 SVG、MA Max 图表、react 图表等。 2. 使用优势:可以用更少的词让模型做更多事,思维发散,能给出创意思路和高级内容。 3. 存在问题:思维链长不易控制,可能输出看不懂或胡编乱造的内容,增加纠错成本。 4. 审核方法:可以用其他大模型来解读 DP 模型给出的内容。 5. 使用建议:使用时要有自己的思维雏形,多看思考过程,避免被模型冲刷原有认知。 6. 使用场景:包括阅读、育儿、写作、随意交流等方面。 7. 案例展示:通过与孩子共读时制作可视化互动游戏,以及左脚踩右脚式的模型交互来展示 DP 模型的应用。 另外,DeepSeek 文档可以在 3 群和 4 群分享中获取,也可在 v to a gi 的飞书知识库中搜索获取。未来活动预告:明天后天在摩纳社区提供免费算力资源带大家学习炼丹,周一晚上学习多维表格中接入 DeepSeek 。
2025-02-20