Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何构建一个AI数字人分身

Answer

构建一个 AI 数字人分身主要包括以下两个方面:

一、构建数字人躯壳

数字人的躯壳建模有多种方式:

  1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢。能将喜欢的动漫人物变成数字人的躯壳。代表是 Live2D Cubism(https://www.live2d.com/)。
  2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高。目前有很多公司都在做这个方向的创业,已经可以实现用户通过手机摄像头快速创建一个自己的虚拟人身体。如 NextHuman(https://nexthuman.cn/)。代表是 UE(Unreal Engine)、Unity,虚幻引擎 MetaHuman 等。但个人学习在电脑配置和学习难度上有一定门槛。
  3. AIGC:虽然省去了建模流程,直接生成数字人的展示图片,但弊端也明显,算法生成的数字人很难保持 ID 一致性,帧与帧的连贯性上会让人有虚假的感觉。如果项目对人物模型真实度要求没有那么高,可以使用这种方案。典型的项目有 wav2lip(https://github.com/Rudrabha/Wav2Lip)、video-retalking(https://github.com/OpenTalker/video-retalking)等。AIGC 还有一个方向是直接生成 2d/3d 引擎的模型,而不是直接生成数字人的最终展示部分,但该方向还在探索中。

建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。

二、构建数字人灵魂

有了数字人躯壳,还需要构建数字人的灵魂,让数字人具备各种智能,比如记得个人信息,充当个人助手;在某个领域具备更专业的知识;能处理复杂的任务等等。实现这些能力有以下几个工程关键点:

  1. AI Agent:要想数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块,工作流模块、各种工具调用模块的构建都是挑战。
  2. 驱动躯壳的实现:灵魂部分通过接口定义,躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等,视躯壳部分的实现而定。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对来说成熟一些,但都是闭源的,效果可以参考 Nvidia 的 Audio2Face(https://www.nvidia.cn/omniverse/apps/audio2face/)或则 Live Link Face(Iphone APP)+Face AR Sample(UE)。
  3. 实时性:由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。
  4. 多元跨模态:仅仅是语音交互的数字人是远远不够的,人有五感(听觉、视觉、嗅觉、触觉、味觉),听觉只是其中一种,其他的感官可以根据实际需求来做,比如视觉可以通过添加摄像头数据来获取数据,再通过系列 CV 算法做图像解析等。
  5. 拟人化场景:正常和人交流的时候不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。
Content generated by AI large model, please carefully verify (powered by aily)

References

AI 数字人-定义数字世界中的你

数字人的躯壳就是建模过程,有多种构建方式:1.2D引擎风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢,毕竟能将喜欢的动漫人物变成数字人的躯壳,是一件很棒的事情。2D引擎的代表就是Live2D Cubism(https://www.live2d.com/)。1.3D引擎风格偏向超写实的人物建模,拟真程度高,定制化成本高,目前有很多公司都在做这个方向的创业,已经可以实现用户通过手机摄像头快速创建一个自己的虚拟人身体(如下图,NextHuman(https://nexthuman.cn/))。3D引擎的代表是UE(Unreal Engine)、Unity,虚幻引擎MetaHuman等(个人学习在电脑配置和学习难度上有一定门槛。1.AIGC虽然AIGC的方式相比前两者省去了建模流程,直接生成数字人的展示图片,但弊端也明显,算法生成的数字人很难保持ID一致性,帧与帧的连贯性上会让人有虚假的感觉。如果项目对人物模型真实度要求没有那么高,可以使用这种方案(算法发展非常快,可能不久就会有连贯度很高的生成方式),典型的项目有wav2lip(https://github.com/Rudrabha/Wav2Lip)、video-retalking(https://github.com/OpenTalker/video-retalking)等。AIGC还有一个方向是直接生成2d/3d引擎的模型,而不是直接生成数字人的最终展示部分,但该方向还在探索中。得益于现有各类技术方案的成熟度,以往建模往往都是由专业的建模师完成工作,不久之后相信大家就可以通过一些生成算法快速生成自己的人物模型了。

AI 数字人-定义数字世界中的你

建好的模型可以使用web前端页面(Live2D就提供了web端的SDK)或者Native的可执行程序进行部署,最后呈现在用户面前的是一个GUI。笔者的开源数字人项目(项目地址:https://github.com/wan-h/awesome-digital-human-live2d)选择了live2d作为数字人躯壳,因为这类SDK的驱动方式相比现在的AI生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于live2d的SDK驱动方式可以参考官方示例:https://github.com/Live2D。

AI 数字人-定义数字世界中的你

有了数字人躯壳,我们就需要构建数字人的灵魂,让数字人具备各种智能,比如记得你的个人信息,充当你的个人助手;在某个领域具备更专业的知识;能处理复杂的任务等等。这些能力实现有以下几个需要注意的工程关键点:1.AI Agent:我们要想数字人像人一样思考就需要写一个像人一样的Agent,工程实现所需的记忆模块,工作流模块、各种工具调用模块的构建都是挑战;2.驱动躯壳的实现:灵魂部分怎样去驱动躯壳部分,我们可以将灵魂部分的所有接口定义出来,然后躯壳部分通过API调用,调用方式可以是HTTP、webSocket等等,视躯壳部分的实现而定。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对来说成熟一些,但都是闭源的,效果可以参考Nvidia的Audio2Face(https://www.nvidia.cn/omniverse/apps/audio2face/)或则Live Link Face(Iphone APP)+Face AR Sample(UE);3.实时性:由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。4.多元跨模态:仅仅是语音交互的数字人是远远不够的,人有五感(听觉、视觉、嗅觉、触觉、味觉),听觉只是其中一种,其他的感官可以根据实际需求来做,比如视觉我们可以通过添加摄像头数据来获取数据,再通过系列CV算法做图像解析等;5.拟人化场景:我们正常和人交流的时候不是线性对话,会有插话、转移话题等情况,这些情景如何通过工程丝滑处理。

Others are asking
我想成为ai产品经理该怎么学习
如果您想成为 AI 产品经理,可以从以下几个方面进行学习: 1. 了解相关技术概念: 思维链:谷歌在 2022 年的论文中提到,思维链能显著提升大语言模型在复杂推理方面的能力,即便不用小样本提示,也可在问题后加一句“请你分步骤思考”。 RAG(检索增强生成):外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一起传给 AI,可搭建企业知识库和个人知识库。 PAL(程序辅助语言模型):2022 年一篇论文中提出,对于语言模型的计算问题,不让 AI 直接生成计算结果,而是借助 Python 解释器等工具作为计算工具。 ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,比如用搜索引擎对关键字进行搜索,观察行动结果,可借助 LangChain 等框架简化构建流程。 2. 关注技术论文:很多大佬认为要关注或直接阅读技术论文,比如产品经理转型 AI 产品经理,需要懂技术脉络。但小白直接看技术论文有难度,虽然现在可让 AI 辅助阅读,仍要完成一定知识储备。林粒粒呀的相关视频是很好的科普入门。 3. 学习技术框架与未来想象:比如了解 Transformer 是仿生算法的阶段性实现,10 年、20 年后可能不再使用。
2025-02-22
ai绘画
AI 绘画具有多方面的特点和影响: 1. 与艺术界的双向影响: 改变传统艺术面貌:从生成艺术作品到辅助艺术创作,影响创作方式、审美观念和市场需求。 技术进步:从早期机械臂机器人到当前大语言模型,在创作质量和速度上取得突破,推动传统艺术数字化和普及化。 引发讨论和争议:人们对 AI 创作的艺术品接受程度与人类作品大致相同,但不太愿意将其视为艺术家;艺术家态度复杂,有期待也有担忧;带来从业者职业安全焦虑和“侵权”反对之声,挑战现有法律和伦理框架。 提供新可能性:帮助艺术家探索新表达方式、提高制作效率、降低成本,促进艺术与观众互动,提供个性化体验。 2. 关键词指南: 公式:主题+环境+气氛+灯光+色彩+构图+风格参考。 比如:将喜欢的艺术家、灯光、颜色等风格放到相应的关键词里。 3. 艺术与科技的融合: 呈现奇妙景象:将艺术与先进技术完美结合,引领艺术界走向未来。 探索之旅:利用机器学习和深度学习模拟创作过程,生成令人惊叹的作品,为艺术家提供新工具和观众带来新体验。 打破局限:不再局限于传统手工绘画技巧,通过技术手段开拓新领域,为艺术家提供灵感,为缺乏绘画技巧的人提供创作机会,使艺术更民主化和包容。
2025-02-21
weights ai 怎么下载
以下是关于 weights ai 下载的相关信息: 按照 FastGPT+OneAPI+COW 带有知识库的机器人完整教程进行环境配置,具体步骤如下: 第一步:cd/root||exit 1 第二步:下方两行粘贴进入,然后点击回车,等待下载完成。(如果这里有了卡点,进行不下去,可能是因为服务器网络问题,去拉取的时候下载不全,可以复制网址,手动去下载到电脑上。然后进入文件夹,找到 root 文件夹,把下载的文件上传进去就好了。) 第三步:然后把下边这行粘贴进去,点击回车。rm f Anaconda32021.05Linuxx86_64.sh 第四步:继续粘贴:/root/anaconda/bin/conda create y name AI python=3.8 第五步:继续,一行一行依次粘贴,依次回车:echo 'source /root/anaconda/bin/activate AI'>>~/.bashrc 第六步:执行完成后。刷新一下,重新进入终端,你会看到,最左侧出现了(AI)的字符。如果出现了,那么恭喜你。配置完成 智谱 AI 提供的所有开源模型均可以在以下平台进行下载: 基于 Hook 机制的微信 AI 机器人安装环境: 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口 在命令窗口中,粘贴入以下代码,确认是否有 python 粘贴入以下代码,确认是否有 pip 如果没有 python 和 pip,先进行 python 的安装,安装包下载地址:(有小伙伴说下载不了,我打包上传了,为了方便下载就没用云盘。只是 7 天会失效去公众号【Equity AI】回复“HOOK”就好了,下载地址 https://www.wenshushu.cn/f/ec5s5x1xo3c)
2025-02-21
两张照片还原人脸,用什么AI工具
以下是一些可用于两张照片还原人脸的 AI 工具和方法: 1. Stable Diffusion: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,在显存不够时放大图片。 利用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写。 2. Midjourney(MJ):加上简单的相机参数、写实风格,使用 MJ v 6.0 绘图,可调整图片比例。 3. InsightFaceSwap: 输入“/saveid”,idname 可随意填写,上传原图。 换脸操作输入“/swapid”,id 填写之前设置的名称,上传分割好的图。 选择效果较好的图片,注意插件每日免费使用次数。 此外,还会用到 PS 进行图片的角度调整、裁切、裁剪、拼接等操作。
2025-02-21
AI编程的落地场景是什么
以下是 AI 编程的一些落地场景: 1. 智能体开发:从最初只有对话框的 chatbot 到具有更多交互方式的应用,低代码或零代码的工作流在某些场景表现较好。 2. 证件照应用:以前实现成本高,现在可通过相关智能体和交互满足客户端需求。 3. 辅助编程: 适合原型开发、架构稳定且模块独立的项目。 对于像翻译、数据提取等简单任务,可通过 AI 工具如 ChatGPT 或 Claude 解决,无需软件开发。 支持上传图片、文档,执行代码,甚至生成视频或报表,大幅扩展应用场景。 4. 自动化测试:在模块稳定后引入,模块变化频繁时需谨慎。 5. 快速迭代与发布 MVP:尽早发布产品,不追求完美,以天或周为单位快速迭代。 需要注意的是,AI 编程虽强,但目前适用于小场景和产品的第一个版本,在复杂应用中可能导致需求理解错误从而使产品出错。在进度不紧张时可先尝试新工具,成熟后再大规模应用。同时,压缩范围,定义清晰的 MVP(最小可行产品),先完成一个 1 个月内可交付的版本,再用 1 个月进行优化迭代。
2025-02-21
不同ai模型的应用场景
以下是不同 AI 模型的应用场景: 基于开源模型: Civitai、海艺 AI、liblib 等为主流创作社区,提供平台让用户利用 AI 技术进行图像创作和分享,用户无需深入了解技术细节即可创作出较高质量的作品。 基于闭源模型: OpenAI 的 DALLE 系列: 发展历史:2021 年初发布 DALLE,2022 年推出 DALLE 2,2023 年发布 DALLE 3,不断提升图像质量、分辨率、准确性和创造性。 模型特点:基于变换器架构,采用稀疏注意力机制,DALLE 2 引入 CLIP 模型提高文本理解能力,DALLE 3 优化细节处理和创意表现。 落地场景:2C 方面可控性强于 Midjourney,但复杂场景和细节处理能力不如 Midjourney;2B 方面与 Midjourney 场景类似。 商业化现状:通过提供 API 服务,使企业和开发者能集成到应用和服务中,采取分层访问和定价策略。 伦理和合规性:加强对生成内容的审查,确保符合伦理和法律标准。 大模型: 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 编程和代码辅助:用于代码自动补全、bug 修复和代码解释。 翻译和跨语言通信:促进不同语言背景用户之间的沟通和信息共享。 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 教育和学习辅助:创建个性化学习材料、自动回答学生问题和提供语言学习支持。 图像和视频生成:如 DALLE 等模型可根据文本描述生成相应图像,未来可能扩展到视频内容生成。 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家沉浸式体验。 医疗和健康咨询:理解和回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务门槛。 这些只是部分应用场景,随着技术进步和模型优化,AI 模型在未来可能会拓展到更多领域和场景。同时,也需注意其在隐私、安全和伦理方面的挑战。
2025-02-21
如何制作数字分身
以下是一些制作数字分身的方法和相关信息: 可以在一些网站如 Elevenlabs.io、speechify.com、Heygen 等自助购买服务,以低成本制作自己的数字人分身。 当 Coze 接入飞书后,将自己的知识数据上传到 Coze,基于个人知识库开发 bot,并将其部署到个人订阅号上,这个 bot 可以作为数字分身与粉丝互动。 通过整合知识库,并结合提示词进行情感或行为上的描述,可以创建一个 bot,形成自己的数字分身。
2025-02-20
实现基于个人聊天记录的数字分身的最佳实践
实现基于个人聊天记录的数字分身的最佳实践包括以下方面: 虚拟数字人的类型和驱动方式: 虚拟数字人通过各种技术创造,具有外观、行为和思想等人类特征,呈现为虚拟形象。 从驱动层面可分为中之人驱动和 AI 驱动两类。中之人驱动运用动作捕捉和面部捕捉技术实现交互,有上限且缺乏高并发和量产化能力;AI 驱动使用 AI 技术创建、驱动和生成内容,赋予感知和表达等交互能力。 虚拟数字人的应用类型: 服务型:如虚拟主播、助手、教师、客服和医生等,为物理世界提供服务。 表演型:如虚拟偶像,用于娱乐、影视等场景。 身份型:是物理世界“真人”进入虚拟世界的数字分身,在元宇宙中有广泛应用场景。 相关开源项目: 熊猫大侠基于 COW 框架的 ChatBot 最新版本支持多端部署、基础对话、语音识别、图片生成、丰富插件、Tool 工具和知识库等功能。可接入个人微信、微信公众号、企业微信应用,支持多种模型和个性化插件扩展,通过上传知识库文件自定义专属机器人,可作为数字分身、领域知识库、智能客服使用。项目地址包括 Github:https://github.com/zhayujie/chatgptonwechat ,Gitee:https://gitee.com/zhayujie/chatgptonwechat 。
2025-02-20
我想用扣子完成AI数字分身的搭建,应该怎么操作
以下是使用扣子完成 AI 数字分身搭建的步骤: 1. 登录扣子官网(https://www.coze.cn/)并注册。 2. 创建个人 Bot: 点击个人空间。 点击创建 Bot。 填入 Bot 的名字和功能介绍,以及上传或生成对应的头像。如果没想好,可以先随便填,后面可更改。 3. 在搭建生产力工具的过程中,要先深入了解自己的工作内容和需求,做出有针对性的规划。 4. 通过整合知识库,并结合提示词进行情感或行为上的描述,创建一个 Bot,形成自己的数字分身。 5. 构建整个 Flow 时要尽量减少控件使用(非必要不增加),越少的控件代表越少的逻辑,越少的逻辑代表越小的运行风险。 6. 对于复杂的批处理任务,尽量平衡批处理次数和并发,同时还要考虑模型的推理速度,不然会增大推理失败的概率。 需要注意的是,Coze 目前提供的组件,包括 bot 等工具,能满足一些基本的生产力搭建需求。虽然现阶段它还不支持循环等高级功能,但未来有望支持更多工作流的设计模式。自 Coze 推出以来,它已明确面向 C 端用户,这些用户能从中获得实质性好处。
2025-01-24
有什么AI社交产品做相亲交友服务吗?不是AI陪伴类,是AI分身促进真人交友的产品
目前在 AI 社交产品领域,有一些相关的探索和尝试。例如,某 AI 社交 APP 创始人认为,在社交场景中,核心分为陌生人社交和熟人社交。他们尝试过纯 AI 虚拟陪聊产品,但发现用户主要是年龄偏低的人群,商业价值相对较低,且可能被模型侵蚀。有效的用户留存来源于真实的人际关系,越接近熟人社交的场景,平台的用户留存能力越高。 同时,AI 赛道投资人认为,产品不应仅限于情感陪伴,应扩展为类人助手,解决理性严肃场景的问题解决和感性需求的满足。AI 社交软件的开发者认为,为用户打造数字分身、创造社交关系是有价值的,通过 AI Agent 可以在人与人之间创造新的社交关系,用户也愿意为这种新型社交互动支付相当的金额。但目前尚未有明确的专门以 AI 分身促进真人交友的成熟产品。
2024-12-03
数字分身
数字分身是指在虚拟世界中代表物理世界“真人”的存在。在不同的场景中有多种应用: 节目表演方面:如在节目单中,有“猜真人”这样的魔术互动类表演,通过数字分身增加趣味性;还有“亲情的应用场景(逝者)”,例如女儿通过逝者的数字分身再次对话。 实战课程方面:通过课程可以获得一比一数字人分身的定制体验,包括熟练使用多种热门数字人工具,掌握相关技术,了解商业应用场景及行业现状,将数字人融入工作流,还能获得进阶学习的自学路径,并且有交流群方便解决问题和交流心得。 价值探讨方面:身份型虚拟数字人在元宇宙中有广泛应用场景。服务型虚拟数字人具有功能属性,隶属于业务层,AI 创造出的虚拟“皮囊”具有一定价值。
2024-08-27
如何用我的照片建一个数字人分身,不限时长,而且成本低
以下是一些用照片创建数字人分身且成本低、不限时长的方法: 1. 剪映 AI:只要有图就可以制作逼真的说话或唱歌的 UGC 数字人娱乐视频。其亮点包括口型自然,制作效率高,写好口播脚本可批量快速制作内容。可以一键克隆专属形象和声音,生成数字分身,快速生产口播视频。数字人适用于口播自媒体等场景。 2. 实战方法:首先添加新轨道,将背景图片轨道的右侧竖线向右拖拽至与视频对齐。然后调整背景图片的尺寸和数字人的位置。接着点击文本智能字幕识别字幕,软件会自动将文字智能分段并形成字幕。最后点击导出按钮导出视频备用。如果希望数字人换成自己希望的面孔,需要用另一个工具进行换脸。 3. VividTalk:让照片说话的技术,单张照片和一段音频可生成看似真实的说话视频,支持多种语言和风格,如真实和卡通风格。 4. HeyGen 的 Avatar2.0:可在 5 分钟内用手机创建个人虚拟分身,支持多语言和口型同步,免费提供服务。
2024-08-27
如果通过deepseek构建智能客服
要通过 DeepSeek 构建智能客服,可以参考以下步骤: 1. 效果对比:用 Coze 做小测试进行对比。 2. 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 3. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不稳定)。 4. 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向;Thinking Claude 是最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 另外,实现联网版的 DeepSeek R1 大模型的核心路径如下: 1. 拥有扣子专业版账号:如果还是普通账号,请自行升级或注册专业号后使用。 2. 开通 DeepSeek R1 大模型:访问地址 https://console.volcengine.com/cozepro/overview?scenario=coze ,打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务,添加在线推理模型,添加后在扣子开发平台才能使用。 3. 创建智能体:点击创建,先完成一个智能体的创建。 同时,GPT1 到 Deepseek R1 所有公开论文中关于智能代理的部分提到:Anthropic 的《构建有效的代理》是一篇关于 2024 年的精彩回顾,重点关注连锁、路由、并行化、协调、评估和优化的重要性。还可以在加州大学伯克利分校 LLM 代理的慕课中找到更多资料。
2025-02-18
怎么用大模型构建一个属于我自己的助手
以下是用大模型构建属于自己的助手的几种方法: 1. 在网站上构建: 创建百炼应用获取大模型推理 API 服务: 进入百炼控制台的,在页面右侧点击新增应用,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认,也可以输入一些 Prompt 来设置人设。 在页面右侧提问验证模型效果,点击右上角的发布。 获取调用 API 所需的凭证: 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面,创建新 APIKEY 并保存到本地。 2. 微信助手构建: 搭建,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。 搭建,作为知识库问答系统,将大模型接入用于回答问题,若不接入微信,搭建完成即可使用其问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 3. 基于 COW 框架构建: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 基于张梦飞同学的更适合小白的使用教程:。 实现功能包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。 注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保操作符合法律法规要求。 禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 支持多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 支持多部署方法,如本地运行、服务器运行、Docker 的方式。
2025-02-17
怎么用大模型构建一个属于我自己的助手
以下是用大模型构建属于自己的助手的几种方法: 1. 在网站上构建: 创建百炼应用获取大模型推理 API 服务: 进入百炼控制台的,在页面右侧点击新增应用,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认,也可以输入一些 Prompt 来设置人设。 在页面右侧提问验证模型效果,点击右上角的发布。 获取调用 API 所需的凭证: 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面,创建新 APIKEY 并保存到本地。 2. 微信助手构建: 搭建,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。 搭建,作为知识库问答系统,将大模型接入用于回答问题,若不接入微信,搭建完成即可使用其问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 3. 基于 COW 框架构建: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 基于张梦飞同学的更适合小白的使用教程:。 实现功能包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。 注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用。 大模型生成的内容注意甄别,确保操作符合法律法规要求。 禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 支持多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 支持多部署方法,如本地运行、服务器运行、Docker 的方式。
2025-02-17
我怎样用低代码工具去构建我的AI智能体?LLM应用?
以下是关于如何用低代码工具构建 AI 智能体和 LLM 应用的一些建议: 在构建基于 LLM 的应用时,Anthropic 建议先寻找最简单的解决方案,只在必要时增加复杂度。智能系统通常会以延迟和成本为代价来换取更好的任务表现,开发者需要考虑这种权衡是否合理。当需要更复杂的解决方案时,工作流适合需要可预测性和一致性的明确任务,而智能体则更适合需要灵活性和模型驱动决策的大规模场景。不过,对于许多应用来说,优化单个 LLM 调用(配合检索和上下文示例)通常就足够了。 目前有许多框架可以简化智能系统的实现,例如: 1. LangChain 的 LangGraph。 2. 亚马逊 Bedrock 的 AI Agent 框架。 3. Rivet(一个拖放式 GUI 的 LLM 工作流构建器)。 4. Vellum(另一个用于构建和测试复杂工作流的 GUI 工具)。 这些框架通过简化标准的底层任务(如调用 LLM、定义和解析工具、链接调用等)使入门变得容易,但它们往往会创建额外的抽象层,可能会使底层提示词和响应变得难以调试,也可能诱使开发者在简单设置就足够的情况下增加不必要的复杂性。建议开发者先直接使用 LLM API,许多模式只需要几行代码就能实现。如果确实要使用框架,请确保理解底层代码。 此外,还有以下相关工具和应用: 1. VectorShift:能在几分钟内构建和部署生成式人工智能应用程序,利用大型语言模型(例如 ChatGPT)构建聊天机器人、文档搜索引擎和文档创建工作流程,无需编码。 2. Unriddle:帮助更快阅读、写作和学习的工具,能简化复杂的主题,找到信息,提问并立即获得答案。 工具使用或函数调用通常被视为从 RAG 到主动行为的第一个半步,为现代人工智能栈增加了一个新的层。一些流行的原语如网页浏览(Browserbase、Tiny Fish)、代码解释(E2B)和授权+认证(Anon)已经出现,它们使 LLM 能够导航网络、与外部软件(如 CRM、ERP)交互并运行自定义代码。Omni 的计算 AI 功能体现了这种方法,它利用 LLM 直接输出适当的 Excel 函数到电子表格中,然后执行计算并自动生成复杂查询供用户使用。 详细示例请参考:https://github.com/anthropics/anthropiccookbook/tree/main/patterns/agents
2025-02-17
如何构建自己领域的微调数据集
构建自己领域的微调数据集可以参考以下步骤: 1. 确定目标领域和应用需求:明确您希望模型在哪个细分领域进行学习和优化。 2. 数据收集:广泛收集与目标领域相关的数据。例如,若要训练二次元模型,需收集二次元优质数据;若要微调 Llama3 ,可参考相关文档获取数据集。 3. 数据标注:对收集的数据进行准确标注,以便模型学习到有效的特征。 4. 数据清洗:去除无效或错误的数据,提高数据质量。 5. 特殊处理:如为数据添加特殊 tag 等。 以 Stable Diffusion 为例,可收集如 833 张宝可梦数据,并按照特定步骤进行清洗、标注和添加特殊 tag 。对于 Llama3 ,获取数据集后上传到服务器,编写并执行微调代码即可进行微调。 在微调过程中,还需注意一些问题,如大型语言模型微调可能面临训练时间长、成本高等挑战,此时可考虑参数有效调优等创新方法。
2025-02-17
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的? 结合以上需求,我需要在飞书上构建一个企业每日利润表分析与汇报助手,该选定哪种prompt框架
很抱歉,目前飞书知识库中没有关于您所描述的这种特定需求下应选定哪种 prompt 框架的相关内容。但一般来说,构建这样的企业每日利润表分析与汇报助手的 prompt 框架可以考虑以下几个方面: 1. 明确数据来源和格式:清晰描述数据来自 Excel 或 MySQL 数据库,以及包含的具体字段。 2. 定义分析维度和指标:如按板块、国家等维度汇总数据,关注利润相关的指标。 3. 设定时间范围:明确分析近一周的数据变化。 4. 描述图表要求:指定以柱状图展示数据。 5. 解释变化原因:阐明导致数据变化或波动的关键因素。 您可以根据实际情况进一步细化和完善这个框架。
2025-02-15
数字人
数字人是运用数字技术创造出来的人,目前业界尚无准确定义,一般可根据技术栈分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货,其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过视觉算法的进步使在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息以达不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,可创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音,合成逼真会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化。使用时请确保遵守相关使用条款和隐私政策,并注意对生成内容的版权和伦理责任。 以下是每个人都可以用 10 分钟轻松制作 AI 数字人视频的方法: 在显示区域,拖动背景图的一个角将图片放大到适合尺寸,比如覆盖视频窗口,并将数字人拖动到合适位置。增加字幕,点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。至此,数字人视频完成,点击右上角“导出”按钮导出视频以作备用。若希望数字人换成自己希望的面孔,则需要用另一个工具来进行换脸。
2025-02-21
AI音频与数字人
以下是关于 AI 音频与数字人的相关信息: 数字人口播配音: 操作指引:输入口播文案,选择期望生成的数字人形象及目标语言,选择输出类型,点击开始生成。 支持的数字人形象和语言多样,能让视频制作更高效。 图片换脸: 操作指引:上传原始图片和换脸图片,点击开始生成。 图片大小上限 5M,支持 JPG、PNG 格式。 视频换脸: 操作指引:上传原始视频和换脸图片,点击生成。 音频合成数字人: 操作指引:上传音频文件,选择数字人角色和输出类型,点击开始生成。 支持 MP3 和 WAV 格式的音频文件,文件大小上限 5M,工具支持使用 100+数字人模板,可解决无素材冷启问题。 AI 配音: 多语种(包含菲律宾语、印地语、马来语等小语种)智能配音,同时支持区分男声和女声。 操作指引:输入需配音文案,选择音色,点击立即生成。 注意输入的配音文案需和选择音色语种保持一致。 AI 字幕: 操作指引:点击上传视频,开始生成,字幕解析完成后下载 SRT 字幕。 支持 MP4 文件类型,大小上限为 50M。 在数字人语音合成方面,提到了声音克隆,有新的声音克隆且音质很不错。算法驱动的数字人相关开源代码仓库有: ASR 语音识别:openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition)。 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分:可以使用 LangChain 的模块去做自定义(https://www.langchain.com/)。 TTS:微软的 edgetts(https://github.com/rany2/edgetts)、VITS(https://github.com/jaywalnut310/vits)、sovitssvc(https://github.com/svcdevelopteam/sovitssvc)。 构建简单数字人的方式包括通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型),但仍存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答等。
2025-02-21
数字人
数字人是运用数字技术创造出来的人,目前业界尚无准确定义,一般可根据技术栈分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货,其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过视觉算法的进步使在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息以达不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,可创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音,合成逼真会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。使用时请确保遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。 以下是每个人都可以用 10 分钟轻松制作 AI 数字人视频的方法: 在显示区域,拖动背景图的一个角将图片放大到适合尺寸,比如覆盖视频窗口,并将数字人拖动到合适位置。 增加字幕,点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 至此,数字人视频完成,点击右上角“导出”按钮,导出视频以作备用。若希望数字人换成自己希望的面孔,则需要用另一个工具来进行换脸。
2025-02-21
如何做数字人视频
以下是用 10 分钟轻松制作 AI 换脸、AI 数字人视频的方法: 生成数字人: 1. 在剪映右侧窗口顶部,打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择数字人形象时会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,剪映会生成对应音视频并添加到视频轨道中,左下角会提示渲染完成,可点击预览按钮查看效果。 2. 增加背景图片:删除先前导入的文本内容,为视频增加背景图片。点击左上角“媒体”菜单并点击“导入”按钮选择本地图片上传,如选择一张书架图片上传,点击图片右下角的加号将其添加到视频轨道上(会覆盖数字人)。点击轨道最右侧竖线向右拖拽,直到与视频对齐。 增加字幕: 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 导出视频: 数字人视频完成后,点击右上角的“导出”按钮,导出视频以作备用。 AI 换脸: 执行完成后,在输出位置会出现处理后的视频,输出窗口右上角有下载按钮,点击可导出变量后的视频到本地。 成本方面: 1. 时间:大约 10 分钟左右。 2. 制作数字人视频:免费。 3. 数字人换脸:约 0.8 元。 4. 数字人换脸时长:经实际测试 1 分 28 秒的视频,总转换时间在 200 秒。GPU 服务器此次整体运行时长所需花费 0.97 元,facefusion 软件运行只占服务器运行时长的一部分,所以换脸成本约 0.8 元。
2025-02-20