Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

具身智能

Answer

具身智能是人工智能领域的一个子领域。

它强调智能体(如机器人、虚拟代理等)通过与物理世界或虚拟环境的直接交互来发展和展现智能。智能不仅仅是处理信息的能力,还包括感知环境、自主导航、操作物体、学习和适应环境等能力。

具身智能的核心在于智能体的“身体”或“形态”,其可以是物理形态(如机器人的机械结构)或虚拟形态(如模拟环境中的虚拟角色)。这些身体为智能体提供了与环境互动的手段,并影响其学习和发展。

具身智能的研究涉及多个学科,如机器人学、认知科学、神经科学和计算机视觉等。在机器人学中,关注设计能自主行动和适应环境的机器人;在认知科学和神经科学中,探索大脑处理与身体相关信息的机制及应用于人造智能系统;在计算机视觉中,致力于开发使智能体理解和解释视觉信息的算法。

具身智能在机器人领域(服务机器人、工业自动化和辅助技术等)、虚拟现实、增强现实和游戏设计等领域有广泛应用。通过具身智能,机器人能更好地理解和适应人类生活环境,提供更自然有效的人机交互,也能创造更具沉浸感和交互性的体验。

具身智能的三要素包括“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),三者高度耦合是高级智能的基础。不同环境下有不同形态的硬件本体适应环境。

具身智能的行动可分为“感知-决策-行动-反馈”四个步骤,形成一个闭环。

在追求人工通用智能(AGI)的过程中,具身 Agent 正成为核心研究范式,它强调智能系统与物理世界的紧密结合。与传统深度学习模型相比,LLM-based Agent 能主动感知和理解所在物理环境并互动,进行“具身行动”。

尽管具身智能取得显著进展,但仍面临诸多挑战,如设计智能体身体以最大化智能表现、让智能体在复杂环境中有效学习、处理智能体与人类社会的伦理和安全问题等。未来研究将继续探索这些问题以推动其发展和应用。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:具身智能是什么?

具身智能(Embodied Intelligence)是人工智能领域的一个子领域,它强调智能体(如机器人、虚拟代理等)需要通过与物理世界或虚拟环境的直接交互来发展和展现智能。这一概念认为,智能不仅仅是处理信息的能力,还包括能够感知环境、进行自主导航、操作物体、学习和适应环境的能力。具身智能的核心在于智能体的“身体”或“形态”,这些身体可以是物理形态,如机器人的机械结构,也可以是虚拟形态,如在模拟环境中的虚拟角色。这些身体不仅为智能体提供了与环境互动的手段,也影响了智能体的学习和发展。例如,一个机器人通过其机械臂与物体的互动,学习抓取和操纵技能;一个虚拟代理通过在游戏环境中的探索,学习解决问题的策略。具身智能的研究涉及多个学科,包括机器人学、认知科学、神经科学和计算机视觉等。在机器人学中,具身智能关注的是如何设计能够自主行动和适应环境的机器人;在认知科学和神经科学中,研究者探索大脑如何处理与身体相关的信息,以及这些机制如何应用于人造智能系统;在计算机视觉中,研究者致力于开发算法,使智能体能够理解和解释视觉信息,从而进行有效的空间导航和物体识别。具身智能的一个重要应用是在机器人领域,特别是在服务机器人、工业自动化和辅助技术等方面。通过具身智能,机器人可以更好地理解和适应人类的生活环境,提供更加自然和有效的人机交互。此外,具身智能也在虚拟现实、增强现实和游戏设计等领域有着广泛的应用,通过创造更具沉浸感和交互性的体验,丰富了人们的数字生活。尽管具身智能在理论和技术上取得了显著进展,但它仍面临许多挑战。例如,如何设计智能体的身体以最大化其智能表现,如何让智能体在复杂多变的环境中有效学习,以及如何处理智能体与人类社会的伦理和安全问题等。未来的研究将继续探索这些问题,以推动具身智能的发展和应用。

一篇具身智能的最新全面综述!(上)

具身智能,即“具身+智能”,是将机器学习算法适配至物理实体,从而与物理世界交互的人工智能范式。以ChatGPT为代表的“软件智能体”(或称“离身智能体”)使用大模型通过网页端、手机APP与用户进行交互,能够接受语音、文字、图片、视频的多种模态的用户指令,从而实现感知环境、规划、记忆以及工具调用,执行复杂的任务。在这些基础之上,具身智能体则将大模型嵌入到物理实体上,通过机器配备的传感器与人类交流,强调智能体与物理环境之间的交互。通俗一点讲,就是要给人工智能这个聪明的“头脑”装上一副“身体”。这个“身体”可以是一部手机,可以是一台自动驾驶汽车。而人形机器人则是集各类核心尖端技术于一体的载体,是具身智能的代表产品。具身智能的三要素:本体、智能、环境具身智能的三要素:“本体”,即硬件载体;“智能”,即大模型、语音、图像、控制、导航等算法;“环境”,即本体所交互的物理世界。本体、智能、环境的高度耦合才是高级智能的基础。不同环境下的会有不同形态的硬件本体以适应环境。比如室内平地更适用轮式机器人,崎岖不平的地面更适用四足机器人(机器狗)。在具身智能体与环境的交互中,智能算法可以通过本体的传感器以感知环境,做出决策以操控本体执行动作任务,从而影响环境。在智能算法与环境的交互中还可以通过“交互学习”和拟人化思维去学习和适应环境,从而实现智能的增长。具身智能的四个模块:感知-决策-行动-反馈一个具身智能体的行动可以分为“感知-决策-行动-反馈”四个步骤,分别由四个模块完成,并形成一个闭环。感知模块

AI-Agent系列(一):智能体起源探究

理解工具:AI Agent有效使用工具的前提是全面了解工具的应用场景和调用方法。没有这种理解,Agent使用工具的过程将变得不可信,也无法真正提高AI Agent的能力。利用LLM强大的zero-shot learning和few-shot learning能力,AI Agent可以通过描述工具功能和参数的zero-shot demonstartion或提供特定工具使用场景和相应方法演示的少量提示来获取工具知识。这些学习方法与人类通过查阅工具手册或观察他人使用工具进行学习的方法类似。在面对复杂任务时,单一工具往往是不够的。因此,AI Agent应首先以适当的方式将复杂任务分解为子任务,然后有效地组织和协调这些子任务,这有赖于LLM的推理和规划能力,当然也包括对工具的理解。使用工具:AI Agent学习使用工具的方法主要包括从demonstartion中学习和从reward中学习(清华有一篇从训练数据中学习的文章)。这包括模仿人类专家的行为,以及了解其行为的后果,并根据从环境和人类获得的反馈做出调整。环境反馈包括行动是否成功完成任务的结果反馈和捕捉行动引起的环境状态变化的中间反馈;人类反馈包括显性评价和隐性行为,如点击链接。具身智能在追求人工通用智能(AGI)的征途中,具身Agent(Embodied Agent)正成为核心的研究范式,它强调将智能系统与物理世界的紧密结合。具身Agent的设计灵感源自人类智能的发展,认为智能不仅仅是对预设数据的处理,更多地来自于与周遭环境的持续互动和反馈。与传统的深度学习模型相比,LLM-based Agent不再局限于处理纯文本信息或调用特定工具执行任务,而是能够主动地感知和理解其所在的物理环境,进而与其互动。这些Agent利用其内部丰富的知识库,进行决策并产生具体行动,以此改变环境,这一系列的行为被称为“具身行动”。

Others are asking
什么是具身智能?
具身智能是人工智能领域的一个子领域。它强调智能体(如机器人、虚拟代理等)通过与物理世界或虚拟环境的直接交互来发展和展现智能。 其核心在于智能体的“身体”或“形态”,这些身体可以是物理形态(如机器人的机械结构),也可以是虚拟形态(如在模拟环境中的虚拟角色)。身体不仅为智能体提供与环境互动的手段,也影响其学习和发展。 具身智能的研究涉及多个学科,包括机器人学、认知科学、神经科学和计算机视觉等。在机器人学中,关注设计能自主行动和适应环境的机器人;在认知科学和神经科学中,探索大脑处理与身体相关信息的机制及应用于人造智能系统;在计算机视觉中,致力于开发使智能体理解和解释视觉信息的算法。 具身智能在机器人领域(如服务机器人、工业自动化和辅助技术等)有重要应用,能让机器人更好地理解和适应人类生活环境,提供更自然有效的人机交互。在虚拟现实、增强现实和游戏设计等领域也有广泛应用,创造更具沉浸感和交互性的体验。 具身智能的三要素为“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),本体、智能、环境的高度耦合是高级智能的基础。其行动可分为“感知决策行动反馈”四个步骤,分别由四个模块完成并形成闭环。 尽管具身智能取得显著进展,但仍面临诸多挑战,如设计智能体身体以最大化智能表现、让智能体在复杂环境中有效学习以及处理与人类社会的伦理和安全问题等。
2025-02-20
具身智能是什么?
具身智能是人工智能领域的一个子领域,指智能体(如机器人、虚拟代理等)通过与物理世界或虚拟环境的直接交互来发展和展现智能。 其核心在于智能体的“身体”或“形态”,这些身体可以是物理形态,如机器人的机械结构,也可以是虚拟形态,如在模拟环境中的虚拟角色。身体不仅为智能体提供了与环境互动的手段,也影响其学习和发展。 具身智能的研究涉及多个学科,包括机器人学、认知科学、神经科学和计算机视觉等。在机器人学中,关注如何设计能自主行动和适应环境的机器人;在认知科学和神经科学中,探索大脑处理与身体相关信息的机制及应用于人造智能系统;在计算机视觉中,致力于开发使智能体能够理解和解释视觉信息,从而进行有效空间导航和物体识别的算法。 具身智能在机器人领域有重要应用,特别是在服务机器人、工业自动化和辅助技术等方面,能让机器人更好地理解和适应人类生活环境,提供更自然有效的人机交互。此外,在虚拟现实、增强现实和游戏设计等领域也有广泛应用,创造更具沉浸感和交互性的体验。 具身智能的三要素包括“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),本体、智能、环境的高度耦合是高级智能的基础。其行动可分为“感知决策行动反馈”四个步骤,并形成一个闭环。 尽管具身智能取得了显著进展,但仍面临诸多挑战,如设计智能体身体以最大化智能表现、让智能体在复杂多变环境中有效学习,以及处理与人类社会的伦理和安全问题等。
2025-02-19
具身智能是什么?
具身智能是人工智能领域的一个子领域,指智能体(如机器人、虚拟代理等)通过与物理世界或虚拟环境的直接交互来发展和展现智能。 其核心在于智能体的“身体”或“形态”,这些身体可以是物理形态,如机器人的机械结构,也可以是虚拟形态,如在模拟环境中的虚拟角色。身体不仅为智能体提供了与环境互动的手段,也影响其学习和发展。 具身智能的研究涉及多个学科,包括机器人学、认知科学、神经科学和计算机视觉等。在机器人学中,关注如何设计能自主行动和适应环境的机器人;在认知科学和神经科学中,探索大脑处理与身体相关信息的机制及应用于人造智能系统;在计算机视觉中,致力于开发使智能体能够理解和解释视觉信息,从而进行有效空间导航和物体识别的算法。 具身智能的应用广泛,在机器人领域,特别是服务机器人、工业自动化和辅助技术等方面,能让机器人更好地理解和适应人类生活环境,提供更自然有效的人机交互。在虚拟现实、增强现实和游戏设计等领域,能创造更具沉浸感和交互性的体验。 具身智能有三要素:本体(硬件载体)、智能(大模型、语音、图像、控制、导航等算法)、环境(本体所交互的物理世界),本体、智能、环境的高度耦合是高级智能的基础。其行动可分为“感知决策行动反馈”四个步骤,分别由四个模块完成并形成闭环。 尽管具身智能取得了显著进展,但仍面临诸多挑战,如如何设计智能体的身体以最大化其智能表现,如何让智能体在复杂多变环境中有效学习,以及如何处理智能体与人类社会的伦理和安全问题等。
2025-02-18
最新具身智能新闻
以下是关于具身智能的最新新闻: 具身智能是将机器学习算法适配至物理实体,从而与物理世界交互的人工智能范式。以 ChatGPT 为代表的“软件智能体”通过网页端、手机 APP 与用户交互,而具身智能体则将大模型嵌入到物理实体上,通过机器配备的传感器与人类交流。人形机器人是具身智能的代表产品。 具身智能的三要素包括本体(硬件载体)、智能(大模型、语音、图像、控制、导航等算法)、环境(本体所交互的物理世界),三者高度耦合是高级智能的基础。不同环境下会有不同形态的硬件本体适应,如室内平地适用轮式机器人,崎岖地面适用四足机器人。 具身智能体的行动分为“感知决策行动反馈”四个步骤,感知模块负责收集和处理信息,通过多种传感器感知和理解环境。常见的传感器有可见光相机、红外相机、深度相机、激光雷达、超声波传感器、压力传感器、麦克风等。 最近,具身智能的概念很火。例如稚晖君开源人形机器人全套图纸+代码引发圈内热议,各类具身智能产品如李飞飞的 Voxposer、谷歌的 RT1 和 RT2、RTX、字节跳动的 Robot Flamingo、斯坦福的 ACT 和卡耐基梅隆的 3D_diffuser_act 等,在不同任务和场景中展示了强大能力,并有潜力带来革命性变革。本文拆分为上下两篇,明天会更新下篇,聚焦人机交互、发展讨论。本文部分参考中国信息通信研究院和北京人形机器人创新有限公司的《具身智能发展报告》。
2025-01-27
具身智能
具身智能是人工智能领域的一个子领域。 它强调智能体(如机器人、虚拟代理等)通过与物理世界或虚拟环境的直接交互来发展和展现智能。智能不仅仅是处理信息的能力,还包括感知环境、自主导航、操作物体、学习和适应环境等能力。 具身智能的核心在于智能体的“身体”或“形态”,其可以是物理形态(如机器人的机械结构)或虚拟形态(如模拟环境中的虚拟角色)。这些身体为智能体提供了与环境互动的手段,并影响其学习和发展。 具身智能的研究涉及多个学科,如机器人学、认知科学、神经科学和计算机视觉等。在机器人学中,关注设计能自主行动和适应环境的机器人;在认知科学和神经科学中,探索大脑处理与身体相关信息的机制及应用于人造智能系统;在计算机视觉中,致力于开发使智能体理解和解释视觉信息的算法。 具身智能在机器人领域(如服务机器人、工业自动化和辅助技术等)、虚拟现实、增强现实和游戏设计等领域有广泛应用。 具身智能的三要素包括“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),三者高度耦合是高级智能的基础。其行动分为“感知决策行动反馈”四个步骤,并形成闭环。 尽管具身智能取得了显著进展,但仍面临诸多挑战,如智能体身体的设计、在复杂多变环境中的有效学习以及与人类社会相关的伦理和安全问题等。
2024-12-31
基于多模态大模型的具身智能 技术原理是什么
基于多模态大模型的具身智能技术原理主要包括以下方面: 决策模块是具身智能系统的核心,负责接收感知模块的环境信息,进行任务规划和推理分析,以指导行动模块生成动作。早期决策模块主要依赖人工编程规则和专用任务算法,而基于近端策略优化算法和 Qlearning 算法的强化学习方法在具身智能自主导航等任务中展现出更好的决策灵活性,但在复杂环境适应能力等方面存在局限。 大模型的出现极大增强了具身智能体的智能程度,提高了环境感知、语音交互和任务决策能力。具身智能体的大模型是 AIGA,调用机械臂、相机等身体部件,其发展方向是视觉语言动作模型(VLA)和视觉语言导航模型(VLN)。 VLA 输入语言、图像或视频流,输出语言和动作,在统一框架内融合互联网、物理世界和运动信息,实现从自然语言指令到可执行动作指令的直接转换。 VLN 输入语言、图像或视频流,输出语言和移动轨迹,用于统一指令输入框架,使大模型直接生成运动方向、目标物体位置等操作信息。 Google Deepmind 从大模型入手打造具身智能,率先提出 Robotics Transformer 系列模型,如 RT1 等,并不断升级。RT1 基于模仿学习中的行为克隆学习范式,输入短的图像序列和指令,输出每个时间步的动作。随着数据量增加,有从分层模型过渡到端到端模型的趋势。 北大 HMI Lab 团队构建了全新的 RoboMamba 多模态大模型,使其具备视觉常识任务和机器人相关任务的推理能力。 在具身智能应用中,更强调“动态”学习方式,如强化学习、模拟学习等,让机器人与环境不断交互学习,通过奖励机制优化行为,获得最优决策策略,摒弃传统控制论算法物理建模的弊端。
2024-12-27
有可以在微信端调用的AI智能体吗?
目前有以下几种在微信端调用 AI 智能体的方式: 1. 通过 chatgptonwechat(简称 CoW)项目: 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 点击“Docker”中的“项目模板”中的“添加”按钮,按照相关步骤进行操作。 项目模板代码示例如下:将编译好的内容复制进来。 在容器中创建容器,选择容器编排,填入模板和名称,确定。 点击容器后,可以看到运行的是两个服务。 点击“wcandyaibot”后面的日志按钮,用提前预备好的微信进行扫码。手动刷新查看是否成功,若看到“WeChat login success”,则接入成功。 2. 智普工作流: 新用户有 1 元及 5 元的资源包可供购买。 工作流具备文章、文件、网页总结,生成图片、视频和文字版日报等功能,通过意图识别跳转节点,使用了多个 agent。 在控制台的自动体中心,右键创建智能体,可选择对话型或文本型,创建后在空旷画布的左下角添加节点,节点包括 agent、LM、工具、代码、数据提取、分支判断和问答等,agent 通过跳入跳出条件与其他节点交互,LM 通过工作流连线执行功能。 文档可在 vtoagi.com 首页的 banner 获取,飞书群也可获取。 接入微信时,准备了云服务器和本地电脑两种版本,可按需选择。 需要注意的是,不同的方式可能存在一定的技术门槛和配置要求。
2025-03-04
如何制作入门制作Coze智能体
以下是入门制作 Coze 智能体的步骤: 1. 创建基础智能体: 进入 coze 官网(www.coze.cn),注册并登录。 点击页面左上角的⊕。 通过【标准创建】填入 bot 的基本信息。 2. 了解 Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定 Bot 的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置:插件(扩展 Bot 的专业能力,如计算器、日历等工具)、工作流(设置固定的处理流程和业务逻辑)、图像流(处理和生成图像的相关功能)、触发器(设置自动化响应条件)。 知识库管理:文本(存储文字类知识材料)、表格(结构化数据的存储和调用)、照片(图像素材库)。 记忆系统:变量(存储对话过程中的临时信息)、数据库(管理持久化的结构化数据)、长期记忆(保存重要的历史对话信息)、文件盒子(管理各类文档资料)。 交互优化(底部区域):开场白(设置初次对话的问候语)、用户问题建议(配置智能推荐的后续问题)、快捷指令(设置常用功能的快速访问)、背景图片(自定义对话界面的视觉效果)。 预览与调试(右侧区域):实时测试 Bot 的各项功能,调试响应效果,优化交互体验。 3. 动手实践: 创建智能体:使用单 Agent 对话流模式。 编排对话流:点击创建一个新的对话流(记得要和智能体关联)。 测试:找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,看到数据即为成功。回到智能体的编排页面,同样方式测试,确保对话流执行成功。 发布:点发布后,只选择多维表格,然后点配置。打开配置页面,注意输出类型选文本,输入类型选字段选择器。完善上架信息,填写表格,选发布范围(可选仅自己可用以加快审核)。提交上架信息后,返回配置界面显示已完成,即可完成最终提交。
2025-03-04
假如你是一名测试工程师,要写一个关于《AI智能体输入输出验证》专利申请书,申请书的内容包括以下几点: 1、发明名称(一种xxxxxxxx算法/架构/设计/外观等等等等) 2、发明背景技术 3、具体的技术方案描述 4、本发明的有益效果
以下是为您生成的关于《AI 智能体输入输出验证》的专利申请书内容: 发明名称:一种基于 Coze 工作流的 AI 智能体输入输出验证算法 发明背景技术: 在当前的 AI 应用中,构建和测试智能体的功能至关重要。特别是在处理复杂的任务,如生成思维导图时,需要确保输入和输出的准确性和有效性。然而,现有的技术在配置子任务节点和验证其可用性方面存在不足,导致效率低下和结果不稳定。 具体的技术方案描述: 1. 对于生成思维导图的任务,首先确定处理方式为“单次”,因为一次精读任务仅需生成一张思维导图。 2. 在输入方面,<generateTreeMind>插件节点仅需设置{{query_text}}变量,格式为 string 字符串,通过引用“标题、导语、大纲”节点的{{enTreeMind}}变量来提供输入。 3. 在输出方面,观察输出区的众多字段,根据字段名称、「查看示例」中的示例说明或试运行来确定所需的字段。对于生成图片格式的思维导图,确定 pic 为所需的输出。 4. 完成任何一个节点的配置后,进行试运行测试。具体步骤包括:点击「测试该节点」,按格式要求输入待测试的内容(对于 array 等其他格式,自行对话 AI 或搜索网络确认格式要求),点击「展开运行结果」,检查输入、输出项是否有误。若有误,依次检查“测试输入内容”、“节点配置”以及优化“提示词”,以提升对生成内容的约束力。 本发明的有益效果: 1. 提高了 AI 智能体在处理生成思维导图等任务时输入输出配置的准确性和效率。 2. 通过明确的步骤和规范的测试流程,有效减少了错误和不确定性,提升了智能体的稳定性和可靠性。 3. 能够更好地满足用户在复杂任务中的需求,为相关领域的应用提供了更优质的解决方案。
2025-03-04
怎么用飞书搭建一个人工智能知识库
以下是使用飞书搭建人工智能知识库的相关内容: 1. 参考文章: 《这可能是讲 Coze 的知识库最通俗易懂的文章了》:介绍了一系列关于 AI 知识库的知识,包括“通往 AGI 之路”这个使用飞书软件搭建的 AI 知识库,以及相关文章对 AI 时代知识库的讲解,读完可收获 AI 时代知识库的概念、实现原理、能力边界等内容。 《【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档》:其中提到创建知识库时可使用手动清洗数据,包括在线知识库和本地文档的处理方式,如在线知识库需创建飞书在线文档,每个问题和答案以“”分割等;还介绍了发布应用时要确保在 Bot 商店中能搜到。 《「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人》:提到创建知识库的路径为个人空间知识库创建知识库,文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用本地文档,可按照操作指引上传文档、分段设置、确认数据处理,同时提到知识库内容切分粒度的小技巧,如使用特殊分割符“”。 2. 总体步骤: 确定所需的数据清洗方式,如手动或自动清洗。 对于在线知识库,创建飞书在线文档,每个问题和答案以特定方式分割,选择飞书文档、自定义等选项,并可编辑修改和删除。 对于本地文档,注意拆分内容以提高训练数据准确度,按照固定方式进行人工标注和处理。 完成创建后可发布应用,确保在 Bot 商店中能搜到。
2025-03-04
扣子用AI搭建智能体 搭建需要注意什么
用扣子搭建智能体需要注意以下几点: 1. 输入人设等信息,并放上创建的工作流。 2. 配置完成后进行测试。 3. 注意工作流中【所有视频片段拼接】节点使用的插件 api_token 不能直接填自己的 token,否则其他人调用会消耗自己的费用。可以将 api_token 作为工作流最开始的输入,让用户购买后自行输入再使用,然后再发布。 4. 给智能体起一个名字,写一段详细的介绍,越详细越好,系统会根据介绍智能生成符合主题的图标。 此外,AI 智能体包含了自己的知识库、工作流、还可以调用外部工具,再结合大模型的自然语言理解能力,就可以完成比较复杂的工作。目前有不少大厂推出自己的 AI 智能体平台,像字节的扣子,阿里的魔搭社区等等。扣子作为字节跳动旗下的新一代一站式 AI Bot 开发平台,无论用户是否具备编程基础,都能在该平台上迅速构建基于 AI 模型的各类问答 Bot。开发完成后,还可以将自己构建的 Bot 发布到各种社交平台和通讯软件上。
2025-03-04
智能体 搭建
以下是关于搭建智能体的相关内容: 创建智能体时,需输入人设等信息,并放上创建的工作流。配置完成后可进行测试,但千万不要直接发布。若工作流中【所有视频片段拼接】节点使用的插件 api_token 填的是您的 token,为避免他人调用消耗您的费用,您可以将 api_token 作为工作流最开始的输入,待用户购买后输入使用,然后再发布。 搭建智能体帮助提炼品牌卖点时,要按照市场营销逻辑组织结构。确定以品牌卖点提炼六步法为核心的流程,将其他分析助手如品牌卖点定义与分类助手、STP 市场分析助手、用户画像分析助手、触点收集助手等加入工作流。同时,还包括一些未在结构中体现但在后续应用中有效的分析工具,如用户需求分析的 KANO 助手、营销六层转化漏斗分析、超级转化率六要素等。 第三期「AI 实训营」中有关于用 DeepSeek 搭建智能体的课程,包括阿里云百炼篇和人工智能平台 PAI 篇,分别介绍了阿里云百炼满血版 DeepSeek 以及 DeepSeek R1 技术原理、不同玩法和实战演练等内容,并提供了相关课程文档。
2025-03-04