以下是关于绘制 Agents 协作的系统架构图的一些参考信息:
首先,了解 Agent 的基本框架,即“Agent = LLM + 规划 + 记忆 + 工具使用”。其中大模型 LLM 扮演了 Agent 的“大脑”。
规划方面,主要包括子目标分解、反思与改进。子目标分解能将大型任务分解为较小可管理的子目标来处理复杂任务,反思和改进则可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。
记忆分为短期记忆和长期记忆。短期记忆是将所有的上下文学习看成利用模型的短期记忆来学习;长期记忆提供了长期存储和召回信息的能力,通常通过利用外部的向量存储和快速检索来实现。
工具方面,不同的任务和场景需要选择合适的工具。
在生成式 AI 的人机协同中,分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)3 种产品设计模式,人与 AI 的协作流程有所差异。在 Agents 模式下,AI 完成大多数工作。
可以通过 Multiagent Collaboration 的方法,让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如,作为产品经理角色,可将产品功能设计需求通过 Agents 拆解成多个独立的任务,然后遵循不同的工作流,最后生成一份大致符合期望的输出结果,再进行修改完善。
此外,还可以参考一些实例探究,如提示 LLM 提供 100 个最新观察结果,并根据这些观测/陈述生成 3 个最重要的高层次问题,然后让 LLM 回答这些问题。规划和反应时要考虑主体之间的关系以及一个主体对另一个主体的观察,环境信息以树形结构呈现。
吴恩达通过开源项目ChatDev进行举例,你可以让一个大语言模型扮演不同的角色,比如让一个Agent扮演公司CEO、产品经理、设计师、代码工程师或测试人员,这些Agent会相互协作,根据需求共同开发一个应用或者复杂程序。AI Agent基本框架OpenAI的研究主管Lilian Weng曾经写过一篇博客叫做《LLM Powered Autonomous Agents》,其中就很好的介绍了Agent的设计框架,她提出了“Agent = LLM +规划+记忆+工具使用”的基础架构,其中大模型LLM扮演了Agent的“大脑”。Planning(规划)主要包括子目标分解、反思与改进。将大型任务分解为较小可管理的子目标处理复杂的任务。而反思和改进指可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。Memory(记忆)分为短期记忆和长期记忆。其中短期记忆是指的将所有的上下文学习看成是利用模型的短期记忆来学习;而长期记忆是提供了长期存储和召回信息的能力,它们通常通过利用外部的向量存储和快速检索来存储和召回信息。Tools(工具)
生成式AI的人机协同分为3种产品设计模式:Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理),在这3种模式下,人与AI的协作流程也是有所差异。Embedding模式:人类完成大多数工作。Copilot模式:人类和AI协同工作。Agents模式:AI完成大多数工作。Agentic Workflow驱动角色工作流变革使用Multiagent Collaboration的方法,让不同角色的Agent按照根据任务要求自主规划选择工具、流程进行协作完成一件任务。我作为一个产品经理角色,我的诉求很简单,需要完成某一个产品功能设计,这个时候通过Agents拆解成多个独立的任务,然后遵循不同的工作流,最后给我生成一份在大体上符合我期望的输出结果,我再修修改改就能够达到可用的阶段了。所以,我从原子能力层重新思考,面对这个快速变化的时代,我该如何去重塑我自己的工作流,以不变应万变呢?我抽象化拆解了大模型的一些底层能力,例如:翻译、识别、提取、格式化等等,其实所有的一些都会围绕几个词“输入”、“处理”、“输出”、“反馈”。
提示LM提供100个最新观察结果,并根据这些观测/陈述生成3个最重要的高层次问题。然后让LM回答这些问题。规划与反应:将反思和环境信息转化为行动规划本质上是为了优化当前与时间的可信度。提示模板:{Intro of an agent X}.Here is X's plan today in broad strokes:1)规划和反应时都会考虑主体之间的关系以及一个主体对另一个主体的观察。环境信息以树形结构呈现。图13.生成Agents架构。(图片来源:[Park等人,2023](https://arxiv.org/abs/2304.03442))这种有趣的模拟会产生新兴的社交行为,例如信息传播、关系记忆(例如,两个Agents继续讨论话题)和社交活动的协调(例如举办聚会并邀请许多其他人)。