以下是一些关于 AI Agent 对现有业务流程提升的案例,希望对您绘制相关 PPT 有所帮助:
关于 Agent 的未来,曾被认为异想天开的想法都可能成为现实,技术迭代会不断向前。同时,在法律法规方面,相关生命周期参与者应实施适当的透明度措施,直接受 AI 系统使用影响的各方应能获取足够信息以维护自身权利,技术标准也可为评估、设计和改进 AI 系统的透明度和可解释性提供指导。
如果大家使用Kimi Chat来查询某个问题,你会发现它会在互联网上检索相关内容,并基于检索结果进行总结分析,最后给出结论。这其实是大模型利用「网页搜索」工具的一个典型例子,同时你也会看到PPT中介绍了非常多的不同领域类型的工具,它其实是为大模型在获取、处理、呈现信息上做额外的补充。PlanningAgent通过自行规划任务执行的工作流路径,面向于简单的或者一些线性流程的运行。比如下图中:Agent会先识别男孩的姿势,并可能找到一个姿势提取模型来识别姿势,在接下来要找到一个姿势图像模型来合成一个新的女孩图像,然后再使用图像理解文本的模型,并在最后使用语音合成输出,完成这个流程任务。Multiagent Collaboration吴恩达通过开源项目ChatDev进行举例,你可以让一个大语言模型扮演不同的角色,比如让一个Agent扮演公司CEO、产品经理、设计师、代码工程师或测试人员,这些Agent会相互协作,根据需求共同开发一个应用或者复杂程序。AI Agent基本框架OpenAI的研究主管Lilian Weng曾经写过一篇博客叫做《LLM Powered Autonomous Agents》,其中就很好的介绍了Agent的设计框架,她提出了“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型LLM扮演了Agent的“大脑”。Planning(规划)主要包括子目标分解、反思与改进。将大型任务分解为较小可管理的子目标处理复杂的任务。而反思和改进指可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。Memory(记忆)
近期出现的各类AI搜索引擎,类似perplexity.ai、metaso、360搜索、ThinkAny等等,都是在不断颠覆传统的搜索引擎。辅助高效的处理信息阅读完一份10万字的PDF研究报告需要多久?这份报告主要讲了什么内容?有没有我要关注的点?智能摘要是目前我用的超顺手的一个功能,能够辅助我快速的筛选信息,什么值得看,什么不容错过,真正的实现信息的降噪。信息表达更简便放在以往很难想象,如果要实现下面这俩张图,可能会设计一系列的思考、草稿、理清逻辑等等流程。现在用自然语言描述一句话就给你生成了这样美观可用的图片,极大的降低了不同角色的创作门槛和周期,是真的简便。那么新型的产品设计方式也就出现了,在我原来的工作流中,我作为一名产品经理,我会开始使用AI去重新构建我的工作流:使用AI进行搞定用户画像、使用AI进行竞品调研、使用AI设计产品测试用例、使用AI绘制产品功能流程图...真的太多了。虽然我也推荐了一些我自己的工作流上使用的产品,但是我比较建议的是:每个人都是独特的个体,应该先摸清楚自己的日常工作流是怎么样的,然后通过每一个工作节点线索,去找到适合你自己使用的工具。就好比,我现在初出茅庐,手上握着+1攻击力的武器,+1的防御装备,这不影响我去打怪升级这个事情,假如你找到了一件合适自己的武器,它可能是+1000攻击力,你换上就好了,是能够快速的在你原来的这套工作流里进行战力升级。关于Agent的未来,我只想说:曾被认为的异想天开的想法,都可能会是AI Agent的未来。AI Agent我们其实可以理解为一个技术浪潮中不断前进的新名词,而技术迭代会不断向前。
cycle actors to implement appropriate transparency measures,for examplethrough regulatory guidance.Parties directly affected by the use of an AIsystem should also be able to access sufficient information about AI systemsto be able to enforce their rights.In applying the principle to their businessprocesses,relevant life cycle actors may be asked to provide this informationin the form and manner required by regulators,including through productlabelling.Technical standards could also provide useful guidance onavailable methods to assess,design,and improve transparency andexplainability within AI systems–recognising that consumers,users andregulators will require different information.9593 For example,digital security can affect the safety of connected products such as automobiles and home appliances if risks are not appropriately managed.See Principle 1.4:Robustness,security and safety,OECD AI,2019.94 Adapted from IEEE 7001-2021,Standard for Transparency of Autonomous Systems.95 For example IEEE 7001-2021(Active Standard)describes measurable,testable levels of transparency so that autonomous systems can be objectively assessed,and levels of compliance determined;ISO/IEC TS6254(Under development)will describe approaches and methods that can be used to achieve explainability objectives of stakeholders with regards to ML models and AI system’s behaviours,outputs,and results.28A pro-innovation approach to AI regulationRationalefor theprincipleTransparency can increase public trust,96 which has been shown to be asignificant driver of AI adoption.97