以下是一些国内优秀的 Agent 应用案例:
以下是一些Agent构建平台:1.Coze:Coze是一个新一代的一站式AI Bot开发平台,适用于构建基于AI模型的各类问答Bot。它集成了丰富的插件工具,可以极大地拓展Bot的能力边界。2.Mircosoft的Copilot Studio:这个平台的主要功能包括外挂数据、定义流程、调用API和操作,以及将Copilot部署到各种渠道。3.文心智能体:这是百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。4.MindOS的Agent平台:允许用户定义Agent的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。5.斑头雁:这是一个2B基于企业知识库构建专属AI Agent的平台,适用于客服、营销、销售等多种场景。它提供了多种成熟模板,功能强大且开箱即用。6.钉钉AI超级助理:依托于钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能。这使得它在处理高频工作场景如销售、客服、行程安排等方面表现更加出色。以上信息提供了关于6个平台的概述,您可以根据自己的需求选择适合的平台进行进一步探索和应用。内容由AI大模型生成,请仔细甄别
部分大模型在技术和应用不同维度表现稍显不一致。车辆使用指南这一维度上,多个模型达到了80分以上的优异表现,说明在一些对用户有用的任务上(如操作指南、车辆故障诊断、维修保养)已经具备较高的交互成熟度。在智能座舱与交互这一维度上,仅有一个中文模型达到了良好表现,说明中文大模型在智能座舱与交互还有不少的进步空间。在汽车场景中,有一些13-14B中小模型也超过了云端的闭源模型,说明可满足用户需求具备良好能力的端侧模型有非常大的潜力。专项基准:SuperCLUE-Agent中文智能体测评基准基准说明AI Agent智能体正在最大程度释放了LLM潜能,逐渐成为了通向AGI的技术共识。AI Agent是一个能够自主理解、规划决策和执行复杂任务的智能体。现有关于Agent能力的测评,主要是在英文场景或任务的测评。目前还没有一个在中文任务和场景上针对中文大模型的全面测评。国内外代表性模型SuperCLUE-Agent十大能力上的表现SuperCLUE-Agent是一个聚焦于Agent能力的多维度基准测试,包括3大核心能力、10大基础任务,可以用于评估大语言模型在核心Agent能力上的表现,包括工具使用、任务规划和长短期记忆能力。测评结果我们选取了国内外有代表性的16个闭源/开源的模型进行测评。通过测评结果发现,在Agent核心基础能力上,国内模型已经较为接近或部分超过GPT3.5水平。
我们的研究结果表明,如果你使用GPT3.5+Zero-shot的正确率为48%,GPT4+Zero-shot的正确率为67%,但是,如果你用GPT3.5+Agentic Workflow,你会得到超越GPT4的效果!因此,Agent在构建AI应用时非常重要。(然后就到了主题)尽管很多学者、专家谈论了很多关于Agent的东西,但我今天想更具体的分享我在Agent中看到比较广泛的四种设计模式(尽管很多团队,开源项目等做了很多种多样的尝试,但我还是按我的理解划分成了四类)。Reflection和Tool Use属于比较经典且相对已经广泛使用的方式,Planning和Multi-agent属于比较新颖比较有前景的方式。第一个讲的就是Reflection(反思,类似于AI的自我纠错和迭代),举个栗子,我们让用Reflection构建好的一个AI系统写个xxx代码,然后AI会把这个代码,加上类似“检查此段代码的正确性,告诉我如何修改”的话术,再返回给AI,AI可能会给你提出其中的Bug,然后如此反复,AI自己完成了自我迭代,虽然修改后的代码质量不一定能保证,但基本上来说效果会更好。(每页PPT下方,吴恩达大佬都推荐了一些相关论文,可以去看看)如上表述的是案例是Single-agent(区别于Mutli-agent的单智能体),但其实你也可以用两个Agent,一个写代码,然后另一个来Debug👇这两个Agent可以用相同的LLM,也可以用不同的,这种Reflection的方式在很多场景都适用。接下来第二个是Tool Use(如果你经常玩GPT4或者国产的一些AI对话产品,那就不陌生了),大语言模型调用插件,极大的拓展了LLM的边界能力。