以下是一些可以找到开源 AI Agent 的途径和相关信息:
顺着推理引擎的思路,我们可以让LLM自己做自动化的多步骤推理,其间能自己使用搜索引擎,调用工具以及与其它LLM协作,Andrej的LLM OS中就包含了这些模块。最早实现这个想法原型的是AutoGPT还有BabyAGI两个开源的智能代理(AI Agent),就在去年GPT-4刚发布的时候,一时风靡全球科技圈,虽然产品非常原型和早期,但是它们给出了很好的解题思路。人类给出目标,LLM自己分解子目标,就像编程函数的递归调用那样,调用外部工具,自我评估任务是否完成,一步步实现整体目标。现在,随着LLM的推理能力和速度的提高,Agent的思路已经被很多创业公司还有科技巨头用到了自己的产品之中。例如,前段时间最受关注并且饱受非议的Devin,来自纽约的华人创业团队Cognition AI,可以像人类程序员一样自动写代码的Agent,你只需要告诉它你的需求就行,由于演示视频过于科幻,导致被人揭露造假。。行业的另一端,Google在今年的Next与I/O大会上,连续地发布了自己的Agent战略,并且把这个概念放在公司的AI Stack之上,Agent就是接下来Google App的衍生。配图2.05:Google Gemini Agent战略从客服Agent到员工Agent再到代码Agent,以及最新的Google Plan Search,可以自动化多步骤执行搜索任务的Agent。例如,你要找一下附近有折扣的理发店并帮你完成预约,那么新的Plan Search能理解你的需求,自动分解任务,然后调用Google Map还有其它工具,自动的完成你的请求。当然Google现在有底气这样做,还得仰仗Gemini 1.5 Pro的推理能力已经达到GPT-4的水平了。
下表为智谱AI开源的语言模型列表|模型|介绍|上下文token数|代码链接|模型权重下载链接||-|-|-|-|-||ChatGLM-6B-int4|ChatGLM-6B的Int4版本。最低只需6GB显存即可部署,最低只需7GB显存即可启动微调([P-Tuning v2](https://github.com/THUDM/P-tuning-v2))|2K||[Huggingface](https://huggingface.co/THUDM/chatglm-6b-int4)|魔搭社区|始智社区|启智社区||ChatGLM-6B-int8|ChatGLM-6B的Int8版本|2K||[Huggingface](https://huggingface.co/THUDM/chatglm-6b-int8)|魔搭社区|始智社区|启智社区||AgentLM-7B|1.我们提出了一种AgentTuning的方法;<br>2.我们开源了包含1866个高质量交互、6个多样化的真实场景任务的Agent数据集AgentInstruct<br>3.基于上述方法和数据集,我们利用Llama2微调了具备超强Agent能力的AgentLM-7B、AgentLM-13B、AgentLM-70B。|4K|[AgentTuning](https://github.com/THUDM/AgentTuning)|[🤗Huggingface Repo](https://huggingface.co/THUDM/agentlm-7b)||AgentLM-13B||4K||[🤗Huggingface Repo](https://huggingface.co/THUDM/agentlm-13b)||AgentLM-70B||8K||[🤗Huggingface Repo](https://huggingface.co/THUDM/agentlm-70b)|
如果大家使用Kimi Chat来查询某个问题,你会发现它会在互联网上检索相关内容,并基于检索结果进行总结分析,最后给出结论。这其实是大模型利用「网页搜索」工具的一个典型例子,同时你也会看到PPT中介绍了非常多的不同领域类型的工具,它其实是为大模型在获取、处理、呈现信息上做额外的补充。PlanningAgent通过自行规划任务执行的工作流路径,面向于简单的或者一些线性流程的运行。比如下图中:Agent会先识别男孩的姿势,并可能找到一个姿势提取模型来识别姿势,在接下来要找到一个姿势图像模型来合成一个新的女孩图像,然后再使用图像理解文本的模型,并在最后使用语音合成输出,完成这个流程任务。Multiagent Collaboration吴恩达通过开源项目ChatDev进行举例,你可以让一个大语言模型扮演不同的角色,比如让一个Agent扮演公司CEO、产品经理、设计师、代码工程师或测试人员,这些Agent会相互协作,根据需求共同开发一个应用或者复杂程序。AI Agent基本框架OpenAI的研究主管Lilian Weng曾经写过一篇博客叫做《LLM Powered Autonomous Agents》,其中就很好的介绍了Agent的设计框架,她提出了“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型LLM扮演了Agent的“大脑”。Planning(规划)主要包括子目标分解、反思与改进。将大型任务分解为较小可管理的子目标处理复杂的任务。而反思和改进指可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。Memory(记忆)