Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何做Agent,请举例说明

Answer

以下是关于如何做 Agent 的详细说明及举例:

一、基本框架

Agent 的基本框架可以概括为“Agent = LLM + 规划 + 记忆 + 工具使用”。其中,大模型 LLM 充当 Agent 的“大脑”。

二、规划(Planning)

主要包括子目标分解、反思与改进。子目标分解能将大型任务拆解为较小可管理的子目标,便于处理复杂任务。反思和改进则可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,以提升最终结果的质量。

三、记忆(Memory)

分为短期记忆和长期记忆。短期记忆将所有的上下文学习视为利用模型的短期记忆来学习;长期记忆提供了长期存储和召回信息的能力,通常通过利用外部的向量存储和快速检索来实现。

四、工具(Tools)

五、智能体的类型

智能体可以根据其复杂性和功能分为以下几种类型:

  1. 简单反应型智能体(Reactive Agents):根据当前的感知输入直接采取行动,不维护内部状态,也不考虑历史信息。例如温控器,根据温度传感器的输入直接打开或关闭加热器。
  2. 基于模型的智能体(Model-based Agents):维护内部状态,对当前和历史感知输入进行建模,能够推理未来的状态变化,并据此采取行动。比如自动驾驶汽车,不仅感知当前环境,还维护和更新周围环境的模型。
  3. 目标导向型智能体(Goal-based Agents):除了感知和行动外,还具有明确的目标,能够根据目标评估不同的行动方案,并选择最优的行动。例如机器人导航系统,有明确的目的地,并计划路线以避免障碍。
  4. 效用型智能体(Utility-based Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动的优劣,权衡利弊。金融交易智能体就是一个例子,它会根据不同市场条件选择最优的交易策略。
  5. 学习型智能体(Learning Agents):能够通过与环境的交互不断改进其性能,学习模型、行为策略以及目标函数。强化学习智能体通过与环境互动不断学习最优策略。

六、从产品角度思考 Agent 设计

以历史新闻探索向导为例,其身份是历史新闻探索向导,性格是知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析。为使角色更生动,可为其设计简短的背景故事,比如曾是一位历史学家,对世界重大历史事件了如指掌且充满热情,愿意分享知识。写好角色个性需考虑角色背景和身份、性格和语气、角色互动方式以及角色技能等方面。

例如吴恩达通过开源项目 ChatDev 举例,可让一个大语言模型扮演不同角色,如公司 CEO、产品经理、设计师、代码工程师或测试人员,这些 Agent 会相互协作,共同开发一个应用或复杂程序。

Content generated by AI large model, please carefully verify (powered by aily)

References

Inhai: Agentic Workflow:AI 重塑了我的工作流

吴恩达通过开源项目ChatDev进行举例,你可以让一个大语言模型扮演不同的角色,比如让一个Agent扮演公司CEO、产品经理、设计师、代码工程师或测试人员,这些Agent会相互协作,根据需求共同开发一个应用或者复杂程序。AI Agent基本框架OpenAI的研究主管Lilian Weng曾经写过一篇博客叫做《LLM Powered Autonomous Agents》,其中就很好的介绍了Agent的设计框架,她提出了“Agent = LLM +规划+记忆+工具使用”的基础架构,其中大模型LLM扮演了Agent的“大脑”。Planning(规划)主要包括子目标分解、反思与改进。将大型任务分解为较小可管理的子目标处理复杂的任务。而反思和改进指可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。Memory(记忆)分为短期记忆和长期记忆。其中短期记忆是指的将所有的上下文学习看成是利用模型的短期记忆来学习;而长期记忆是提供了长期存储和召回信息的能力,它们通常通过利用外部的向量存储和快速检索来存储和召回信息。Tools(工具)

问:什么是智能体 Agent

智能体可以根据其复杂性和功能分为几种类型:1.简单反应型智能体(Reactive Agents):这种智能体根据当前的感知输入直接采取行动。不维护内部状态,也不考虑历史信息。示例:温控器,它根据温度传感器的输入直接打开或关闭加热器。1.基于模型的智能体(Model-based Agents):维护内部状态,对当前和历史感知输入进行建模。能够推理未来的状态变化,并根据推理结果采取行动。示例:自动驾驶汽车,它不仅感知当前环境,还维护和更新周围环境的模型。1.目标导向型智能体(Goal-based Agents):除了感知和行动外,还具有明确的目标。能够根据目标评估不同的行动方案,并选择最优的行动。示例:机器人导航系统,它有明确的目的地,并计划路线以避免障碍。1.效用型智能体(Utility-based Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动。评估行动的优劣,权衡利弊。示例:金融交易智能体,根据不同市场条件选择最优的交易策略。1.学习型智能体(Learning Agents):能够通过与环境的交互不断改进其性能。学习模型、行为策略以及目标函数。示例:强化学习智能体,通过与环境互动不断学习最优策略。

Roger:从产品角度思考 Agent 设计

我们的Agent是一个历史新闻探索向导。身份:历史新闻探索向导性格:知识渊博、温暖亲切、富有同情心角色:主导新闻解析和历史背景分析为了使角色更加生动,我为Agent设计了一个简短的背景故事。比如,这个Agent曾是一位历史学家,对世界上的重大历史事件了如指掌,充满热情,愿意分享知识。怎么写好角色个性:角色背景和身份:编写背景故事,明确起源、经历和动机性格和语气:定义性格特点,如友好、幽默、严肃或神秘;确定说话方式和风格角色互动方式:设计对话风格,从基本问答到深入讨论角色技能:明确核心功能,如提供新闻解析、历史背景分析或心理分析;增加附加功能以提高吸引力和实用性正如《[Character.ai:每个人都可定制自己的个性化AI](https://waytoagi.feishu.cn/wiki/EoBkwirgjiqscKkAO6Wchyf1nPe)》所写:个性化定制的“虚拟伴侣”能得到用户的认可,这是因为精准地击中了许多年轻人无处可藏的孤独和焦虑,背后是年轻人渴望被理解、沟通和交流。美国心理学家Robert Jeffrey Sternberg提出了“爱情三角理论”,认为爱情包含“激情”、“亲密”和“承诺”三个要素。

Others are asking
什么是 ai agent
AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:我们可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 总结下来我们需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态) 2. Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体) 3. Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈 这三个 Agent 每隔一段时间运行一次(默认 3 分钟),运行时会分析期间的历史对话,变更人物关系(亲密度,了解度等),变更反感度,如果超标则拉黑用户,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。 此外,心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,从低层次的感知和反应到高层次的规划和决策,每个层次由多个 Agent 负责。每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务,如视觉处理、语言理解、运动控制等。智能不是集中在单一的核心处理单元,而是通过多个相互关联的 Agent 共同实现。这种分布式智能能够提高系统的灵活性和鲁棒性,应对复杂和多变的环境。同时,在《心灵社会》中,还存在专家 Agent(拥有特定领域知识和技能,负责处理复杂的任务和解决特定问题)、管理 Agent(协调和控制其他 Agent 的活动,确保整体系统协调一致地运行)、学习 Agent(通过经验和交互,不断调整和优化自身行为,提高系统在不断变化环境中的适应能力)。 从达特茅斯会议开始讨论人工智能(Artificial Intelligence),到马文·明斯基引入“Agent”概念,往后,我们都将其称之为 AI Agent。
2025-02-26
Agent如何构建
以下是一些常见的 Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具,能拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 搭建工作流驱动的 Agent 通常可分为以下 3 个步骤: 1. 规划: 制定任务的关键方法。 总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施: 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。
2025-02-25
什么是agent
Agent(智能体)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 从产品角度看,Agent 可以有具体的身份、性格和角色。例如,是一个历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,主导新闻解析和历史背景分析,还可以为其设计背景故事来使角色更生动。写好角色个性需要考虑角色背景和身份、性格和语气、角色互动方式、角色技能等方面。 在结合大型语言模型(LLM)的情况下,LLM Agent 是指结合大型语言模型和自主智能体特性的系统。它能够利用大型语言模型的自然语言处理能力,理解用户输入,并进行智能决策和行动。其组成部分包括规划、记忆、工具和行动。规划负责将复杂任务分解成可执行的子任务,并评估执行策略;记忆包括短期记忆和长期记忆,短期记忆用于存储对话上下文,长期记忆存储用户特征和业务数据;工具是感知环境、执行决策的辅助手段,如 API 调用、插件扩展等;行动是将规划和记忆转换为具体输出的过程,包括与外部环境的互动或工具调用。 在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,还包括规划、子目标和分解、反思和完善、记忆(短期记忆和长期记忆)、工具使用等关键组成部分。
2025-02-25
什么事Agent
Agent(智能体)是一种能够在环境中自主感知、思考并采取行动以实现特定目标的实体。它可以是软件程序,也可以是硬件设备。 在人工智能领域,LLM Agent 是指结合大型语言模型(LLM)和自主智能体(Agent)特性的系统。这种系统能够利用大型语言模型的自然语言处理能力,理解用户的输入,并在此基础上进行智能决策和行动。 LLM Agent 通常由以下几个关键组成部分: 1. 规划:包括将复杂任务分解成可执行的子任务,并评估执行策略,还能对过去的行为进行自我批评和反思,从错误中吸取教训并完善未来的步骤。 2. 记忆:分为短期记忆,用于存储对话上下文以支持多轮对话;长期记忆,通过向量数据库等技术实现快速存取,可长时间保留和回忆信息。 3. 工具:是感知环境、执行决策的辅助手段,如调用 API、使用插件扩展等,以扩展 Agent 的能力。 4. 行动:将规划和记忆转换为具体输出,包括与外部环境的互动或工具调用。 从产品角度思考 Agent 设计时,比如将 Agent 设计为一个历史新闻探索向导,要明确其身份、性格、角色,为其编写背景故事,定义性格特点和说话方式,设计对话风格,明确核心功能和附加功能。 例如,一个历史新闻探索向导的身份可以是曾是一位历史学家,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析。通过这样的设计,使 Agent 更加生动和吸引人。
2025-02-25
如何构建智能问答Agent
以下是关于构建智能问答 Agent 的相关信息: Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 在飞书上构建 FAQ 机器人: 1. 会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区的情况。 2. 讨论了利用 AI 技术帮助用户更好地检索知识库中的内容,引入了 RAG 技术,通过机器人来帮助用户快速检索内容。 3. 介绍了基于飞书的知识库智能问答技术的应用场景和实现方法,可以快速地给大模型补充新鲜的知识,提供大量新的内容。 4. 讨论了如何使用飞书的智能伙伴功能来搭建 FAQ 机器人,以及智能助理的原理和使用方法。 5. 飞书智能伙伴创建平台(Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用。 本地部署资讯问答机器人: 决定先采取 Langchain + Ollama 的技术栈来作为 demo 实现,后续也会考虑使用 dify、fastgpt 等更加直观易用的 AI 开发平台。 整体框架设计思路如下: Langchain 是当前大模型应用开发的主流框架之一,提供一系列工具和接口,核心在于其“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,可灵活组合支持复杂应用逻辑,其生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。 Ollama 是一个开箱即用的用于在本地运行大模型的框架。 请注意,以上信息由 AI 大模型生成,请仔细甄别。
2025-02-24
Agent
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,既可以是软件程序,也可以是硬件设备。 在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并具有以下关键组成部分: 1. 规划:将大型任务分解为更小、可管理的子目标,有效处理复杂任务。 2. 反思和完善:对过去行为进行自我批评和反思,从错误中吸取教训,完善未来步骤,提高最终结果质量。 3. 记忆:包括短期记忆,用于所有的上下文学习;长期记忆,通过利用外部向量存储和快速检索实现长时间保留和回忆无限信息的能力。 4. 工具使用:学习调用外部 API 来获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。 以下是一些关于智能体 Agent 的相关目录: 1. 2. 3. 4. 5. 6. 从产品角度思考 Agent 设计: 1. Agent 可以是一个历史新闻探索向导。 身份:历史新闻探索向导 性格:知识渊博、温暖亲切、富有同情心 角色:主导新闻解析和历史背景分析 为使角色更生动,可为其设计简短背景故事,如曾是一位历史学家,对世界重大历史事件了如指掌,充满热情,愿意分享知识。 2. 写好角色个性的方法: 角色背景和身份:编写背景故事,明确起源、经历和动机。 性格和语气:定义性格特点,如友好、幽默、严肃或神秘;确定说话方式和风格。 角色互动方式:设计对话风格,从基本问答到深入讨论。 角色技能:明确核心功能,如提供新闻解析、历史背景分析或心理分析;增加附加功能以提高吸引力和实用性。 正如《》所写:个性化定制的“虚拟伴侣”能得到用户认可,因为精准击中许多年轻人无处可藏的孤独和焦虑,背后是年轻人渴望被理解、沟通和交流。美国心理学家 Robert Jeffrey Sternberg 提出了“爱情三角理论”,认为爱情包含“激情”“亲密”“承诺”三个要素。激情是生理上或情绪上的唤醒,例如对某人有强烈的性或浪漫的感觉;亲密是一种相互依恋的感觉,通过相互联结带来的喜爱和相互沟通分享自己的所见所闻、喜怒哀乐来体现;承诺是决定建立长期稳定关系,融入对方生活,形成互助互惠的关系,代表着一种长相厮守的责任。
2025-02-24
举例说明,意图和FAQ训练的区别
意图和 FAQ 训练是两种不同的概念。 意图训练主要侧重于理解用户的核心意图或目的。例如,在一个客服场景中,用户的意图可能是查询产品信息、寻求技术支持或进行投诉等。通过对大量的用户交互数据进行分析和学习,模型能够识别出这些不同的意图类别。 FAQ 训练则侧重于常见问题及其对应的标准答案。比如常见的“产品如何退换货”“售后服务的联系方式是什么”等问题,以及相应的准确回答。 总的来说,意图训练更注重对用户目的的分类和理解,而 FAQ 训练更侧重于对特定常见问题的准确回答。
2025-01-13
举例说明,医疗人工智能应用的风险及其法理防范
医疗人工智能应用存在以下风险: 1. 可能对受欧盟法律保护的公共利益和基本权利造成损害,包括身体、心理、社会或经济方面的损害。 2. 在决定是否给予、拒绝、减少、取消或收回医疗保健服务等福利时,可能对人们的生计产生重大影响,并侵犯基本权利,如社会保护权、不受歧视权、人的尊严权或有效补救权。 3. 用于评估自然人信用分数或信用度的人工智能系统可能导致对个人或群体的歧视,并延续历史上的歧视模式或造成新形式的歧视性影响。 法理防范措施包括: 1. 为所有高风险人工智能系统制定统一的规则,这些规则应与《宪章》保持一致,是非歧视性的,并符合欧盟的国际贸易承诺,同时考虑相关的伦理准则。 2. 明确价值链上相关经营者的作用和具体义务,促进对法规的遵从,确保法律的确定性。 3. 在特定条件下,明确高风险人工智能系统提供者的责任和义务。 需要注意的是,欧盟法律规定的用于检测提供金融服务过程中的欺诈行为以及用于计算信贷机构和保险企业资本要求的尽职审慎目的的人工智能系统,以及用于自然人健康和人寿保险风险评估和定价的人工智能系统,在符合一定条件时不视为高风险系统。
2025-01-02
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响,请举例说明
欧盟《人工智能法案》在中国适用过程中的积极影响与不利影响举例如下: 积极影响: 1. 对中小企业的兼顾激励与监管:欧盟的法案顾及到了中小企业在人工智能领域的弱势地位,适当地将对中小企业的合规义务豁免规定以及合规支持规定纳入未来的人工智能立法中,有利于形成健康有序的公平竞争秩序,激发中小企业的科技创新活力,同时防止过度监管。例如,2023 年《AI 法案》折衷草案通过制约单方面强加给中小企业和初创企业的不公平合同条款、促进监管沙盒广泛而平等的参与、降低评估费用等措施降低中小企业的合规成本。 2. 纳入道德伦理和人权考量:《人工智能法案》将人工智能系统对伦理道德和基本人权的影响有机纳入规制框架和评估框架中,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。 不利影响: 1. 以风险为基准的管理框架存在不确定性:伦理道德和人权具有高度概括性、抽象性和不确定性,如何将其融入人工智能治理考验立法技术。《人工智能法案》对“不可接受的风险”和“高风险”的人工智能系统的界定和解释存在相当大的不确定性和模糊性,可能难以统一进行风险分类,成效有待进一步观望和研讨。 2. 可能无法完全适应中国国情:中国和欧盟在人工智能发展的阶段、市场环境、企业结构等方面存在差异,欧盟的法案在具体适用时可能需要进行较大的调整和适配,否则可能无法有效发挥作用。
2024-12-29
欧盟《人工智能法案》在我国适用过程中的影响,请举例说明(注意,简洁凝练)
欧盟《人工智能法案》在我国适用过程中的影响主要体现在以下方面: 1. 立法参考:我国与欧盟在人工智能立法工作上“齐头并进”,且立法理念有共通之处,如风险分级管理、高风险项目的“备案”“评估”“透明”等原则。该法案对我国人工智能立法工作具有重要参考意义。 2. 市场拓展:若我国的 AI 项目有意拓展欧洲市场,可能因针对不同市场重新训练特有模型效率不高,而不得不根据欧盟法案对产品进行调整。 同时,我国是第一个开始制定生成式人工智能监管框架的国家,从 2022 年开始陆续出台全面指南,如今审查机构已介入。我国持续生产 SOTA 模型,由国家互联网信息办公室监督。政府希望模型避免给政治问题提供“错误”答案,发布模型前须提交测试以校准拒绝率。虽然禁止 Hugging Face 等国外网站访问,但官方批准的“主流价值观语料库”可作为训练数据源。此外,伦理道德和人权向来是人工智能技术发展绕不开的终极话题,我国《科技伦理审查办法》也是将伦理纳入包括人工智能开发在内的科技活动的积极探索。但由于该《办法》适用于所有科技活动,人工智能的特殊性可能无从得到体现,且如何界定和解释“不可接受的风险”和“高风险”的人工智能系统也面临相当大的不确定性和模糊性。
2024-12-29
AI的能力边界是什么,请举例说明
AI 的能力存在边界,主要体现在以下方面: 1. 知识来源受限:AI 的知识来源于训练数据,无法超越这些数据的范围,如同学生不能回答课本之外的问题。 2. 推理能力有限:即使拥有足够的知识,AI 也无法像人类一样进行无限的推理和联想。 例如,在“Hallucination is Inevitable:An Innate Limitation of Large Language Models”这篇论文中,揭示了 AI 幻觉无法被完全消除的根本原因就在于 AI 模型的能力边界。 在探索者队伍的研究中,有人提出开发一个用于探索 AI 能力边界的实验平台,这也从侧面反映了对 AI 能力边界的关注。 此外,国际政治的边界或将按照 AI 技术边界来重新划分,也说明了 AI 能力边界的影响范围之广。
2024-08-31
大语言模型领域, 如何理解“退火”概念。 请用通俗易懂的方式举例说明
在大语言模型领域,“退火”是一个相对复杂的概念。通俗地说,您可以把它想象成铁匠打铁时的一个过程。铁匠在打造铁器时,不会一开始就用猛火高温一直烧,而是会逐渐升高温度,然后再慢慢降低温度,让金属的结构更加稳定和优化。 在大语言模型中,“退火”的作用类似于此。它可能是在模型的训练过程中,对某些参数或者条件进行逐步的调整和优化,以达到更好的性能和效果。但目前提供的知识库内容中,没有直接关于大语言模型中“退火”概念的详细且通俗易懂的解释和具体例子。
2024-08-13