以下为为您推荐的能通过通用语言大模型直接输出思维导图的 AI 智能体:
首先需要根据用户的任务<调研市场上主流的开源搜索引擎技术架构>,使用搜索工具补充更多的信息。这里我们使用工具API Web-Search-Pro,具体[参考文档](https://bigmodel.cn/dev/api/search-tool/web-search-pro)。请求代码搜索结果[heading3]第二步,用模型规划和分解子任务[content]然后我们需要使用大模型来帮助我们规划,把用户问题拆分成若干子搜索任务,并转换为JSON格式。这里我们通过GLM-4-0520的模型来分析,参考[API文档](https://bigmodel.cn/dev/api/normal-model/glm-4)。JSON格式处理,我们参考[JSON工具](https://bigmodel.cn/dev/howuse/jsonformat)。请求代码拆分问题(格式可解析成JSON OBJECT)[heading3]第三步,用搜索智能体完成子任务[content]AI搜索智能体不仅具备联网搜索的能力,还能够自主分析并进行多轮搜索任务。智能体API的调用方式,具体[参考文档](https://bigmodel.cn/dev/api/qingyanassistant/assistantapi)。智能体id:659e54b1b8006379b4b2abd6简介:连接全网内容,精准搜索,快速分析并总结的智能助手。请求代码子问题搜索结果[heading3]第四步,总结子任务生成思维导图[content]智能体能调用各种插件,除了思维导图以外,还有流程图、PPT工具等,你可以根据工作需要选择。智能体API的调用方式,具体[参考文档](https://bigmodel.cn/dev/api/qingyanassistant/assistantapi)。智能体id:664e0cade018d633146de0d2简介:告别整理烦恼,任何复杂概念秒变脑图。请求代码总结并生成脑图
很明确,未来的完全自主智能体可能会拥有所有四个构建块,但今天的LLM应用程序和智能体还没有达到这个水平。例如,流行的RAG架构不是智能体式的,而是以推理和外部记忆作为其基础。一些设计,如[OpenAI的结构化输出](https://openai.com/index/introducing-structured-outputs-in-the-api/)甚至支持工具使用。但重要的区别在于,这些应用程序将LLM作为语义搜索、综合或生成的"工具",但它们采取的步骤(即逻辑流)仍由代码预先确定。对比来说,当您将LLM置于应用程序的控制流中并让它动态决定要采取的行动、要使用的工具以及如何解释和响应输入时,智能体就会出现。只要这是真的,有些智能体甚至不需要与外部工具交互或采取行动。在Menlo,我们确定了三种不同主要用例和应用程序进程控制自由度的智能体类型。受到最严格限制的是"决策智能体"设计,它们使用语言模型来遍历预定义的决策树。"轨道智能体"则提供了更大的自由度,为智能体配备了更高层次的目标,但同时限制了解决空间,要求遵循标准作业程序并使用预先设定的"工具"库。最后,在光谱的另一端是"通用人工智能体"——本质上是没有任何数据支架的for循环,完全依赖于语言模型的推理能力来进行所有的计划、反思和纠正。以下,我们将探讨五种参考架构和每种智能体类型的人工智能体示例。
纯靠词生卡Prompt完成卡片样式输出,固然是非常灵活的AI智能体方案。但倘若在最终落地产品中,还是每次都依赖大模型重新生成卡片的样式代码,反而会消耗大量的输出token,耗时且不经济。此外,在实际使用中,用户通常只固定使用一到两个常用模板,对自定义样式的需求并不频繁。所以在开发AI Share Card插件的过程中,我选择将模板生成功能设计为固定的代码组件,而让大模型专注于内容总结的功能。如果用户需要选择其他模板,则通过增加更多模板选项or自定义模板代码功能实现。如此一来,对AI大模型的要求就不会动辄需要像Claude 3.5 sonnet那样高不可攀的顶级模型。处理纯文本总结任务,仅需13B或更小参数的模型,加上精调的提示词,就能产生很好的结果。一旦明确模型的任务,AI API服务的选型要求就清晰了:1.较长的上下文窗口:内容总结类任务需要较大的上下文长度;2.响应速度要快、并发支持要高:以便在多人使用插件时,保持良好的性能表现;3.免费或尽量低价:减少模型token费用。经过简单调研后,AI Share Card选用的是GLM-4-flash(没恰饭。截至2024-12,长达128k的上下文窗口,完全免费的调用价格,200 RPM高并发支持,还要什么自行车🚲~)