Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

人形机器人如何入门

Answer

要入门人形机器人,以下是一些关键的方面:

  1. 了解具身智能的概念:具身智能是将机器学习算法适配至物理实体,从而与物理世界交互的人工智能范式。人形机器人是具身智能的代表产品。
  2. 掌握具身智能的要素:包括“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界),且三者高度耦合是高级智能的基础。
  3. 熟悉具身智能的模块:具身智能体的行动分为“感知-决策-行动-反馈”四个步骤,分别由四个模块完成,并形成一个闭环。
  4. 关注相关技术进展:例如在 AI 3D 生成领域的进展对具身智能领域具有革命性意义,世界模型开启了在虚拟世界中预训练机器人的新可能,大幅降低试错成本,加速学习过程,为实现更复杂的机器人行为打开可能。
  5. 研究具体案例:如哥伦比亚大学创意机器实验室开发的人形机器人头,其能精准模拟人类面部表情,使用 AI 模型预测和回应人类表情,自我监督学习生成表情。
Content generated by AI large model, please carefully verify (powered by aily)

References

码观 | 共识与非共识:从模型到应用,2024 AI 趋势回首与展望

李飞飞如何做到这一点,目前仍然不能完全确定,但可以确定的是,行业在2024年一年,在AI 3D生成领域,有了很大的进展。高斯喷射、One-2-3-45等工作,极大地加速了AI 3D生成的进展。而通过对3D物体的生成,所构建出的世界,再进行降维的视频生成,生成的视频,自然符合物理世界的规律,生成的世界也可交互。这些进展对具身智能领域具有革命性意义。和任何AI训练一样,具身智能——也就是机器人的智能,想要变得更聪明,也需要大量数据。传统上,训练机器人需要在现实世界收集大量数据,这个过程极其昂贵且效率低下。这些数据要采集自现实世界,比如使用动作捕捉设备遥操作驱动机器人进行操作,常规的操作是配备一到两人,一个机器人,一套动捕装备和一个计算机,还需要大量的时间投入。而世界模型开启了一个新的可能:在虚拟世界中预训练机器人。这个虚拟世界完全符合物理规律,可以快速生成无限场景,支持并行训练多个任务。这将大幅降低试错成本。这不仅加速了机器人的学习过程,也为实现更复杂的机器人行为打开了可能。我们或许会在接下来几年看到,具身智能突然出现像过去语言模型、视觉模型得到大量数据后出现的跨越式发展。这种进步正在催生新的应用可能:更自然的人机交互界面、更安全的机器人控制系统、更高效的虚拟训练平台。在制造业、虚拟现实、机器人技术等领域,世界模型都可能带来革命性的变革。世界模型也在改变AI理解和交互世界的基本方式,从表面特征的识别提升到深层物理规律的理解,从静态的判断发展到动态的预测,从单一模态扩展到多维度感知。模型开始真正理解和模拟这个世界的运行规律,这或许是通向真正“人形机器人”的关键一步。

一篇具身智能的最新全面综述!(上)

具身智能,即“具身+智能”,是将机器学习算法适配至物理实体,从而与物理世界交互的人工智能范式。以ChatGPT为代表的“软件智能体”(或称“离身智能体”)使用大模型通过网页端、手机APP与用户进行交互,能够接受语音、文字、图片、视频的多种模态的用户指令,从而实现感知环境、规划、记忆以及工具调用,执行复杂的任务。在这些基础之上,具身智能体则将大模型嵌入到物理实体上,通过机器配备的传感器与人类交流,强调智能体与物理环境之间的交互。通俗一点讲,就是要给人工智能这个聪明的“头脑”装上一副“身体”。这个“身体”可以是一部手机,可以是一台自动驾驶汽车。而人形机器人则是集各类核心尖端技术于一体的载体,是具身智能的代表产品。具身智能的三要素:本体、智能、环境具身智能的三要素:“本体”,即硬件载体;“智能”,即大模型、语音、图像、控制、导航等算法;“环境”,即本体所交互的物理世界。本体、智能、环境的高度耦合才是高级智能的基础。不同环境下的会有不同形态的硬件本体以适应环境。比如室内平地更适用轮式机器人,崎岖不平的地面更适用四足机器人(机器狗)。在具身智能体与环境的交互中,智能算法可以通过本体的传感器以感知环境,做出决策以操控本体执行动作任务,从而影响环境。在智能算法与环境的交互中还可以通过“交互学习”和拟人化思维去学习和适应环境,从而实现智能的增长。具身智能的四个模块:感知-决策-行动-反馈一个具身智能体的行动可以分为“感知-决策-行动-反馈”四个步骤,分别由四个模块完成,并形成一个闭环。

XiaoHu.AI日报

🔗https://x.com/imxiaohu/status/1774264556497588410?s=205⃣️🤖Emo-哥伦比亚大学创意机器实验室开发的人形机器人头:精准模拟人类面部表情,具有高分辨率眼部跟踪。使用AI模型预测和回应人类表情,自我监督学习生成表情。🔗https://engineering.columbia.edu/news/robot-can-you-say-cheese🔗https://x.com/imxiaohu/status/1774062241098465487?s=206⃣️📸Living Images-自动优化网站图片:输入网址,自动改进图片吸引力,包括A/B测试。旨在提升用户行动,如点击、购买或注册。🔗http://coframe.ai🔗http://img.coframe.ai🔗https://x.com/imxiaohu/status/1773914481262997541?s=207⃣️🌌微软和OpenAI计划建造“星际之门”AI超级计算机:预计成本1000亿美元,旨在提供强大AI计算能力。将建造数百万服务器芯片的数据中心。🔗https://theinformation.com/articles/microsoft-and-openai-plot-100-billion-stargate-ai-supercomputer🔗https://x.com/imxiaohu/status/1773909540935029025?s=208⃣️🗣️OpenAI发布语音生成模型Voice Engine:根据文本和15秒音频样本生成自然语音。支持情感丰富的声音生成,多语种和保留口音。

Others are asking
入门指南
以下是强化学习的入门指南: 1. 基础知识补充:如果没有相关基础且概率论和线性代数知识遗忘较多,可以学习相关课程,周末一天可完成;若对机器学习无基础,可先看吴恩达课程,再以李宏毅课程补充,单纯入门强化学习只需看前几节讲完神经网络的部分,此视频课程约需 25 小时。 2. 动手实践:跟着《动手学深度学习 https://hrl.boyuai.com/》学习并写代码,入门看前五章,约 10 小时。 3. 深入学习基础知识点:观看 B 站王树森的深度学习课程的前几节,约 5 小时。 4. 项目实践:可以看《动手学强化学习》,看到 DQN 部分,约十几小时。同时,文中还提到行动只有向左或向右两个,模型构建简单,DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用两层网络结构;需要一个缓存区存放从环境中采样的数据;有训练函数,批量从缓存区获取数据,使用 DQN 算法进行训练;还有主循环函数,在每个 episode 中选择动作(使用 εgreedy 策略),执行动作并将结果存储在 replay buffer 中,训练完使用保存好的 model.pth 参数即可实际使用。 文章作者为腾讯互动娱乐工程师 luozhiyun,原文地址:https://mp.weixin.qq.com/s/pOO0llKRKL1HKG8uz_Nm0A,感谢群友.com 的推荐。在学习前先明确目的,本文以搞懂 DQN 算法作为入门目标。像 https://github.com/ty4z2008/Qix/blob/master/dl.md 这类链接中有很多资料,但需筛选。
2025-03-22
背景:我是一名高中生,想学习AI知识,逐步从入门到精通 目标:希望在<3个月>内具备一定能力。 请结合我的背景和优势,为我设计一份学习路线: - 列出每阶段(例如每一个礼拜)的学习重点(比如编程基础、数学)。 - 为每个阶段推荐<具体资源>(书籍、在线课程、练习项目等)。 - 提供一些学习技巧或注意事项。
以下是为您设计的一份在 3 个月内从入门到具备一定能力的 AI 学习路线: 第一个月: 学习重点:了解 AI 基本概念,包括术语、主要分支及它们之间的联系;掌握编程基础,如 Python 语言。 推荐资源: 书籍:《人工智能:一种现代方法》 在线课程:Coursera 上的“人工智能入门”课程 练习项目:使用 Python 实现简单的数据分析和可视化 学习技巧和注意事项:多做笔记,理解概念,注重实践。 第二个月: 学习重点:深入学习数学基础,包括统计学、线性代数和概率论;了解算法和模型中的监督学习和无监督学习。 推荐资源: 书籍:《概率论与数理统计》《线性代数及其应用》 在线课程:edX 上的“机器学习基础”课程 练习项目:使用监督学习算法进行数据分类预测 学习技巧和注意事项:通过实际案例加深对数学知识的理解,多做练习题。 第三个月: 学习重点:掌握神经网络基础,包括网络结构和激活函数;学习模型的评估和调优。 推荐资源: 书籍:《深度学习》 在线课程:Udacity 上的“深度学习入门”课程 练习项目:构建并优化一个简单的神经网络模型 学习技巧和注意事项:积极参与在线讨论,及时解决学习中的问题。 在整个学习过程中,您还可以: 体验 AI 产品,如 ChatGPT、文心一言等,了解其工作原理和交互方式。 掌握提示词的技巧,提高与 AI 的交互效果。 参与相关的社区和论坛,分享学习经验和成果。
2025-03-21
机器学习入门
以下是关于机器学习入门的相关知识: 实现人工智能的方法: 自上而下的方法:尝试对推理过程进行建模,将其形式化并转化为计算机程序,即符号推理。例如医生诊断时应用大量规则得出结果,但从人类专家提取知识较困难,且有些任务无法简化为知识操作。 自下而上的方法:模拟大脑中的神经元,在计算机中构建人工神经网络,通过举例让其学习解决问题,类似于新生儿的学习过程。 机器学习: 是人工智能的一部分,基于数据使计算机学会解决问题。 经典机器学习在《机器学习入门课程》中有详细介绍。 学习资源:《》。 算法学习中的数学基础: 统计学:机器学习是统计的另一种形式,可利用统计学预估数据规律。统计学中关注的数据汇总技术包括平均值、中位数、众数等。平均值在机器学习中的特征归一化、计算 R² 值等方面有应用;中位数在将数据样本划分为等间隔或四分位数范围时有用;众数可用于查找数据集中占主导地位的元素或类别。
2025-03-21
我想快速学习AI agent相关知识,请问有什么视频可以快速入门?
以下是一些可以帮助您快速入门 AI agent 相关知识的视频资源: 1. 元子的“Agent 板块”相关内容: 链接: 用法:从下往上看,一个一个点进去,都有视频。 注意事项:共学都有视频,都是手把手从注册开始的教学,不会就多看几遍,基本保障一个工具能调通、一个 Agent 能搭好。如果觉得内容较多,可以先从听过的工具开始,避免太累。 2. 大圣分享的《Coze 全流程搭建》: 视频时间点及内容: AI agent 共学小组:扣子入门分享 AI agent——解决人工智能编写难题的新利器 关于 AI agent 的介绍及扣子的使用 介绍如何创建 GPT 4 免费使用的小 bot 并了解 cos 界面 如何利用 AI 实现智能客服 关于知识库的使用及文档要求 如何使用知识库和工作流让机器人调用知识库生成回答 如何利用工作流、大模型、代码节点和变量节点构建知识库 3. 元子的“从常见工具开始——都体验一遍”相关内容: 工具入门篇(AI Agent):Agent 工具小白的 Coze 之旅 文章链接: 视频链接:Coze 之旅 1.0: 适用人群:完全没有编程基础,但对 AI 已有一点概念的小白 简要说明:为纯粹小白补的分享 AI AGENT 搭建平台,为什么是它、怎么 30 分钟就能开始用它 您可以根据自己的情况选择适合的视频进行学习。
2025-03-21
入门级介绍
以下是关于入门级的介绍: 在 AI 产品经理方面,入门级能通过 WaytoAGI 等开源网站或一些课程了解 AI 的概念,使用 AI 产品并尝试动手实践应用搭建,对应的画像可能是喜欢听小宇宙 APP 的播客或浏览 AI 相关的文章。 在搭建微信机器人方面,入门级如 Stuart 的教程,教你用最简单的方式搭建微信机器人,网速好的话一个小时能搞定。
2025-03-20
trae小白入门到精通
以下是关于 Trae 小白入门到精通的相关内容: 线上课程资料: B 站搜索「通往 AGI 之路」,进入课程合集「Trae 小白入门到精通」,链接:https://space.bilibili.com/259768893/lists/4964987?type=season 更多资料: 校园:https://waytoagi.feishu.cn/wiki/WtsVwPRrnie5iGk5BiKcYEjHnpb?renamingWikiNode=true 灵感参考: Build on Trae AI 编程挑战获奖作品展示:https://waytoagi.feishu.cn/wiki/ME5ZwwUw0ixMlkkbsq1cGngknUd 实践 1:美国金融学年会(AFA)入选论文分析:https://xwfixqlhmsm.feishu.cn/wiki/JuBqwFnxPiMGCRkmqtNcxoymn1f 实践 1:桌面宠物制作:https://lcnziv86vkx6.feishu.cn/wiki/RuyQwpBWniauANkyUsTcG675nme?fromScene=spaceOverview 每日打卡:https://waytoagi.feishu.cn/share/base/form/shrcnRZdkqXc2aVfjoZmvnF2Pvg 直达 Trae: https://sourl.co/rCjTWs https://mp.weixin.qq.com/s/nJJMeGEAHXy6HC_T_ThSTw Trae 的保姆级使用指南: 控制按钮(开始、暂停、重新开始)和游戏说明。 生成任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”。 根据 UI 设计图自动生成项目代码:从站酷上找设计图,输入提示“使用 html 技术实现如图大屏页面”。 总结: 高效代码生成能力:能在几分钟内生成完整框架,代码结构清晰且功能齐全,甚至能自动处理依赖项和运行命令。 多技术栈支持:对 Web 技术的掌握远超预期,生成的代码可直接运行且无明显语法错误。 动态调整潜力:能根据用户反馈快速调整样式,自适应布局的实现展现了 AI 的迭代能力。 进入客户端:自动进入 Trae 的客户端后,查看对话框右下角,有三种大模型选择:Claude3.5Sonnet、Claude3.7Sonnet、GPT4o。 提供两种模式: Chat 模式:根据描述进行代码生成、解释、分析问题或解决问题。 Builder 模式:可以让 Trae 帮助从 0 开发一个完整的项目,对代码文件的任何更改都会自动保存。 使用案例: 生成贪吃蛇游戏:打开 Builder 模式输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后 Trae 开始思考和代码编写,手动接入进行文件审查点击“全部接受”,代码生成完成后 Trae 自动运行命令启动页面,运行后在 Webview 中可看到实现的游戏效果。游戏包含特性、主要功能和游戏界面等。
2025-03-20
结合北京房山区文化、地标建筑、生态景观等内容,设计房山区中小学数学节 LOGO,要求巧妙融合数学元素(如几何图形、数学公式、数学符号等)与 AI 元素(如神经网络图案、代码片段、智能机器人形象等),生动诠释 “数学 + AI=?” 的主题内涵。
以下是为您整合的相关内容: 北京具有丰富多样的特色元素,包括经典地标如万里长城、天安门广场、故宫角楼、天坛等,见证了历史变迁;宜居生活方面,有独特的美食如豆汁儿、脆皮烤鸭、老北京炸酱面,以及充满京腔的日常生活;潮流文化新地标如国家博物馆、胡同里的新老交融、环球影城、798 等;未来科技方面,有西二旗的上班族日常、北大化学系科研 vlog、世界机器人大会等。 在海报设计方面,若对 AI 回答有疑问可再搜索确认,对于想用的项目要确认与北京的关系及能否使用;兔爷、戏曲金句等北京有名元素可用,金句可分化。做海报时可借鉴三思老师毛绒玩具美食系列,先找参考、做头脑风暴。比赛征集内容有四个赛道,若做系列海报,围绕金句或偏向北京非遗项目做系列较简单。用 AI 制作海报时,如制作北京地标糖葫芦风格海报,可用集梦 2.1 模型,以天坛等建筑为画面中心,注意材质、抽卡选图和细节处理。 对于设计房山区中小学数学节 LOGO,您可以考虑将房山区的特色文化、地标建筑、生态景观与数学元素(如几何图形、数学公式、数学符号等)和 AI 元素(如神经网络图案、代码片段、智能机器人形象等)相结合。例如,以房山区的著名建筑为主体,融入数学图形进行变形设计,同时添加一些代表 AI 的线条或图案,以生动诠释“数学 + AI=?”的主题内涵。
2025-03-18
AI在未来运用在人形机器人上能实现什么
在未来,AI 运用在人形机器人上能够实现以下方面: 1. 为人类生活带来更智能、更便捷的体验,提供各种生活服务和生产制造服务。 2. 打造能够与人类建立深度互动的智能体,自主处理与复杂物理世界的交互。 3. 利用端到端的 AI 运动控制技术驱动软硬件一体化的机器人系列产品,开发在真实世界中生产、制造以及服务的人形机器人产品。 4. 拥有先进的计算机视觉算法、人工智能算法、控制和路径规划算法,对 3D 物体的姿势估计具有出色的感知能力。 5. 可以为机器人提供模仿训练数据,人形机器人可能在人类世界中更加有用,部署更加高效。 6. 借助相关技术,人形机器人能够从少量人类演示中学习,帮助完成日常任务,通过观察模仿人类的运动。 7. 由全新的机器人芯片提供支持,实现更强大的智能功能。
2024-09-30
怎么学习人形机器人相关知识
以下是一些学习人形机器人相关知识的途径和资源: 1. 关注 Xiaohu.AI 日报:其中提到了 Alter3 人形机器人,由东京大学开发,由 GPT 4 驱动,可以自主进行各种人类动作,如自拍姿势,还能通过口头反馈调整姿势、表达情感,并且涉及程序代码转换,将动作语言描述转为机器人执行代码。相关链接:https://x.com/xiaohuggg/status/1734492844545683636?s=20 2. 了解黄仁勋在 AI 界超级碗 GTC2024 的主旨演讲:其中提到为机器人提供模仿训练数据,人类和人形机器人构建方式相似,人形机器人能学习适应物理世界等内容。 此外,您还可以通过以下方式深入学习人形机器人知识: 1. 阅读相关的学术文献和研究报告,了解人形机器人的技术原理和发展趋势。 2. 参加专业的学术会议和研讨会,与行业专家和学者交流。 3. 在线课程平台上寻找关于人形机器人的课程进行系统学习。 4. 关注相关的科技博客和论坛,获取最新的行业动态和技术分享。
2024-09-20
用什么软件可以生成个人ai数字人形象?
以下为您介绍可以生成个人 AI 数字人形象的软件及方法: 剪映 App 可以帮助您生成数字人形象。在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,比如“婉婉青春”。选择数字人形象时,软件会播放其声音,您可判断是否需要,然后点击右下角的“添加数字人”,软件会根据之前提供的内容生成对应音视频并添加到当前视频中。左下角会提示渲染完成时间,之后可点击预览按钮查看效果。 生成数字人后,您还可以进行以下操作来完善视频: 1. 增加背景图片:删除先前导入的文本内容,点击左上角的“媒体”菜单并点击“导入”按钮,选择本地图片上传,将图片添加到视频轨道上,通过拖拽轨道右侧竖线使其与视频长度对齐,再调整图片大小和数字人的位置。 2. 增加字幕:点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 如果您希望数字人换成自己希望的面孔,可以使用 facefusion 软件。打开该软件,返回实例列表,点击自定义服务按钮,通过新的浏览器窗口访问其 UI 界面。上传准备好的图片和视频,在右侧可看到预览效果,点击下方的开始按钮执行换脸处理。处理完成后,在输出位置点击下载按钮导出换脸后的视频。 整个过程大约 10 分钟,制作数字人视频免费,数字人换脸约 0.8 元。
2024-07-19
帮我起一个基于STM32的维修机器人论文标题
以下是为您生成的一些基于 STM32 的维修机器人论文标题,供您参考: 1. 《基于 STM32 的智能维修机器人系统设计与实现》 2. 《STM32 在维修机器人中的应用与性能优化》 3. 《基于 STM32 控制的高效维修机器人研究》 4. 《以 STM32 为核心的维修机器人技术创新与实践》 5. 《STM32 驱动的维修机器人精准作业研究》 6. 《基于 STM32 的多功能维修机器人开发与应用》 7. 《探索 STM32 在维修机器人领域的关键作用》 8. 《STM32 助力下的维修机器人智能化发展》 9. 《基于 STM32 的维修机器人自主导航与故障修复技术》 10. 《利用 STM32 实现维修机器人的高效能运作》
2025-03-20
国内有哪些机器人研发企业
以下是一些国内的机器人研发企业: 宇树科技:从 2013 年开始致力于消费级、行业级高性能通用足式的自主研发,是国内四足机器人相关专利最多的机器人公司。自研电机、减速器、编码器及各类机器人传感器,自主开发各类机器人算法。仅用半年时间就研发出通用人形机器人 H1 并量产,一年内不断迭代更新,综合性能全球领先,跑步速度达到 3.3m/s,创世界纪录,同时也是全球首个可实现原地空翻的全尺寸电驱动人形机器人。其产品丰富多样,包括 Go1、B2、L1、G1、Laikago Pro、A1、Go2 等,并应用于巡检等领域。宇树科技还拥有 180 多项申请国内外专利,150 多项公开授权。此外,宇树科技的产品还曾在冬奥会开幕式、春晚、美国超级碗等重大活动中亮相。
2025-03-20
我想做一个AI机器人,用于自动回复我的抖音新消息,现在有办法能解决吗
目前可以通过 Coze 平台来实现让 AI 机器人自动回复您的抖音新消息。以下是相关信息: 微信的不同功能与 Coze 平台对接情况: 个人微信/微信群:之前 Coze 平台不支持直接对接,但国内版已正式发布 API 接口功能,直接对接成为可能。 微信公众号:Coze 平台支持对接,AI 机器人可自动回复用户消息。 微信服务号:Coze 平台支持对接,能提升服务效率。 微信客服:Coze 平台支持对接,可自动回答用户咨询,提高客服响应速度。 配置 AI 微信聊天机器人的步骤: 登录成功后,找另一个人私聊或者在群中@您,能看到机器人正常回复。 若想为 AI 赋予提示词,可返回“目录 4 里的第 17 步”进行更改。 此后进行任何更改,都需“返回首页 右上角 点击重启,重启一下服务器”。 然后,在“文件”的【终端】里,输入“nohup python3 app.py&tail f nohup.out 重新扫码登录”。 关于添加插件,可参考。 疑问解答: 放行端口:类似于给房子安装门铃,通过放行特定端口(如 8888 端口)可通过互联网访问宝塔面板,管理和配置服务器上的服务。 Bot ID:是在 Coze 平台上创建的 AI 机器人的唯一标识,用于将微信号与特定机器人关联。 微信账号被封:若因使用机器人被封,可尝试联系客服说明情况。建议使用专门微信号作为机器人账号,并遵守微信使用规范。 服务器:需要一直开着,以保证机器人随时在线响应请求。 不懂编程:完全可以配置,按照教程一步一步操作即可。 配置问题:检查每步是否按教程操作,特别是 API 令牌和 Bot ID 是否正确。无法解决可到 Coze 平台的论坛或微信群求助。
2025-03-19
微信机器人
以下是关于微信机器人的相关内容: 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复,此时表示已通。若不通,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 为 AI 赋予不同提示词,可返回“第三章,第 7 步”或“目录 4 里的第 17 步”进行更改。 此后任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”,或者在熟悉 linux 操作的情况下通过重启进程的方式来重启服务。然后在“文件”的【终端】里,直接输入 nohup python3 app.py&tail f nohup.out 重新扫码登录即可。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助: 若遇到问题,可先查询社区知识库,或者加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可以加 Stuart 个人微信询问。 第一天教程:COW 部署的完成步骤: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复,此时表示已通。 若想为 AI 赋予提示词,可返回“目录 4 里的第 17 步”进行更改。 此后任何更改,都需要重新打印登陆二维码,建议在多次重新登录后,在宝塔“首页 右上角 点击重启,重启一下服务器”清理进程。然后在“文件”的【终端】里,直接输入 nohup python3 app.py&tail f nohup.out 重新扫码登录即可。 若没有手机登录,可以使用夜神模拟器模拟手机登录。 一个月内,不要上来就加好友、最好不要私聊聊天。 报错“wxsid”是因为微信未实名,实名即可。 完成机器人搭建,机器人拉群里,可领 Link AI 提供的 100 个,合计 3500 万 GPT3.5 Token 的礼品码,可用来实现画图、搜索、识图等功能,COW 插件里几乎都支持使用 LinkAI 平台。也可添加微信,拉您进机器人群先行体验。 COW 问题: 微信机器人无法正常画图,给的图片链接点进去有“{"Success":1,"error":{"code":4008,"message":"The specified key does not exist."}}”错误提示,查看/root/chatgptonwechat/run.log 中有相关提示,可能是点链接时最后多了一个小括号。 扫码后,手机登陆后,没有任何机器人的反应,可能是配置有错错误或安装不对,根据步骤去逐一检查或重装。 按照在 coze 上的设计,输入特定数字后,会出现相应的内容,由于内容生成需要时间,因此生成前加了“内容加速生成中,请稍等”的消息,在 coze 中运行正确,但在微信机器人中,始终只显示内容生成中的消息,后面的内容不会出现。这不是问题,COW 本身就处理不了,一次只能调取一个对话。有代码能力,可以直接调整代码实现。 宝塔之后登录的时候登录不上去,按下图所示重启服务器之后就好了,重启时间可能会久,但一定会重启成功,请耐心等待。
2025-03-16
如何搭建一个你这样的知识库智能问答机器人,有相关的流程教程吗?
搭建一个知识库智能问答机器人通常包括以下流程: 1. 基于 RAG 机制: RAG 机制全称为“检索增强生成”,是一种结合检索和生成的自然语言处理技术。它先从大型数据集中检索与问题相关的信息,再利用这些信息生成回答。 要实现知识库问答功能,需创建包含大量文章和资料的知识库,例如有关 AI 启蒙和信息来源的知识库,并通过手工录入方式上传文章内容。 2. 利用 Coze 搭建: 收集知识:确认知识库支持的数据类型,通过企业或个人沉淀的 Word、PDF 等文档、云文档(通过链接访问)、互联网公开内容(可安装 Coze 提供的插件采集)等方式收集。 创建知识库。 创建数据库用以存储每次的问答。 创建工作流: 思考整个流程,包括用户输入问题、大模型通过知识库搜索答案、大模型根据知识库内容生成答案、数据库存储用户问题和答案、将答案展示给用户。 Start 节点:每个工作流默认都有的节点,是工作流的开始,可定义输入变量,如 question,由 Bot 从外部获取信息传递过来。 知识库节点:输入为用户的查询 Query,输出为从知识库中查询出来的匹配片段。注意查询策略,如混合查询、语义查询、全文索引等概念。 变量节点:具有设置变量给 Bot 和从 Bot 中获取变量的能力。 编写 Bot 的提示词。 预览调试与发布。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2025-03-14