Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI 数字人哪家的好

Answer

以下为您介绍一些较好的 AI 数字人相关的资源和产品:

  1. 数字人躯壳构建:
    • 可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署。笔者的开源数字人项目(项目地址:https://github.com/wan-h/awesome-digital-human-live2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单。另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D。
  2. 数字人课程:
    • 强烈推荐卡尔的 AI 沃茨做的这门数字人课程,一共 15 节视频课,持续更新还会不定时增加最新的数字人内容,附赠课外社群辅导,专门解决数字人相关的问题。关于卡尔,从创建 AIGC 开源学习网站 learnpromptl.pro,到建立卡尔的 AI 沃茨万人社群,他一直致力于 AI 学习圈。这一次,他建立了一套完整的数字人学习体系,放在这门《克隆你自己》的课程中,带领大家全方位掌握数字人各技能。同时,他详细回顾了 2023 年数字人领域的破圈事件,如 AI 马斯克对谈 AI 乔布斯超 331.9k 播放、霉霉说中文火遍全网、AI 郭德纲讲英文相声、硅语翻译|海外明星送出中文新年祝福、通义千问|兵马俑跳科目三、小冰推出支持交互的多模态数字人、阿根廷新总统用 HeyGen 做演讲等。数字人的出现,可以极大程度上优化工作流,尤其在制作个人 ip 短视频、配音、直播甚至到智能客服、虚拟偶像等各种领域都可以完成赋能。如果您想加入这场数字人浪潮,拥有自己的数字分身,优化自己的工作流,这门具备完整数字人学习体系的课程,正是您的需求。(扫码可以查看课程详细内容和介绍)
  3. 算法驱动的数字人相关开源代码:
    • ASR 语音识别:openai 的 whisper:https://github.com/openai/whisper ;wenet:https://github.com/wenet-e2e/wenet ;speech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口):https://github.com/Uberi/speech_recognition 。
    • AI Agent:大模型部分包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。Agent 部分可以使用 LangChain 的模块去做自定义,里面基本包含了 Agent 实现的几个组件(https://www.langchain.com/) 。
    • TTS:微软的 edge-tts:https://github.com/rany2/edge-tts,只能使用里面预设的人物声音,目前接口免费;VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits 系列可以自己训练出想要的人声;so-vits-svc:https://github.com/svc-develop-team/so-vits-svc,专注到唱歌上面,前段时间很火的 AI 孙燕姿。

当然这种简单的构建方式还存在很多的问题,例如:如何生成指定人物的声音?TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作?数字人如何使用知识库,做出某个领域的专业性回答?

Content generated by AI large model, please carefully verify (powered by aily)

References

AI 数字人-定义数字世界中的你

建好的模型可以使用web前端页面(Live2D就提供了web端的SDK)或者Native的可执行程序进行部署,最后呈现在用户面前的是一个GUI。笔者的开源数字人项目(项目地址:https://github.com/wan-h/awesome-digital-human-live2d)选择了live2d作为数字人躯壳,因为这类SDK的驱动方式相比现在的AI生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于live2d的SDK驱动方式可以参考官方示例:https://github.com/Live2D。

实战课程:数字人课程

强烈推荐一下卡尔的AI沃茨做的这门数字人课程,一共15节视频课,持续更新还会不定时增加最新的数字人内容,附赠课外社群辅导,专门解决数字人相关的问题。关于卡尔,从创建AIGC开源学习网站learnpromptl.pro,到建立卡尔的AI沃茨万人社群,他一直致力于AI学习圈。这一次,他建立了一套完整的数字人学习体系,放在这门《克隆你自己》的课程中,带领大家全方位掌握数字人各技能💪同时,他详细回顾了2023年数字人领域的破圈事件⬇️AI马斯克对谈AI乔布斯超331.9k播放霉霉说中文火遍全网,HeyGen再破圈AI郭德纲讲英文相声硅语翻译|海外明星送出中文新年祝福通义千问|兵马俑跳科目三小冰推出支持交互的多模态数字人阿根廷新总统用HeyGen做演讲🤖️数字人的出现,可以极大程度上优化工作流,尤其在制作个人ip短视频、配音、直播甚至到智能客服、虚拟偶像等各种领域都可以完成赋能。所以如果你想加入这场数字人浪潮,拥有自己的数字分身,优化自己的工作流,这门具备完整数字人学习体系的课程,正是你的需求💡[heading2]报名方式[content]🎉24年是数字人元年,人人都将拥有自己的数字人!(扫码可以查看课程详细内容和介绍)[heading2]行业评价[content]业内KOL数字人发言💬[heading2]课程大纲[heading2]教学形式

AI 数字人-定义数字世界中的你

上述算法开源的代码有很多,这里列出一些仓库供大家参考:ASR语音识别openai的whisper:https://github.com/openai/whisperwenet:https://github.com/wenet-e2e/wenetspeech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口):https://github.com/Uberi/speech_recognitionAI Agent大模型部分就比较多了,包括ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。Agent部分可以使用LangChain的模块去做自定义,里面基本包含了Agent实现的几个组件(https://www.langchain.com/)TTS微软的edge-tts:https://github.com/rany2/edge-tts,只能使用里面预设的人物声音,目前接口免费。VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits系列可以自己训练出想要的人声。so-vits-svc:https://github.com/svc-develop-team/so-vits-svc,专注到唱歌上面,前段时间很火的AI孙燕姿。除了算法,人物建模模型可以通过手动建模(音频驱动)或者AIGC的方式生成人物的动态效果(例如wav2lip模型)实现,这样就完成了一个最简单的数字人。当然这种简单的构建方式还存在很多的问题,例如:如何生成指定人物的声音?TTS生成的音频如何精确驱动数字人口型以及做出相应的动作?数字人如何使用知识库,做出某个领域的专业性回答?

Others are asking
编辑PPT的ai
以下是一些关于编辑 PPT 的 AI 产品及相关信息: 1. Gamma:在线 PPT 制作网站,可通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式,如 GIF 和视频,网址:https://gamma.app/ 2. 美图 AI PPT:由美图秀秀开发团队推出,通过输入简单文本描述生成专业 PPT 设计,有丰富模板库和设计元素,适用于多种场合,网址:https://www.xdesign.com/ppt/ 3. Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能,如自动布局、图像选择和文本优化等,网址:https://www.mindshow.fun/ 4. 讯飞智文:科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术,提供智能文本生成、语音输入、文档格式化等功能,网址:https://zhiwen.xfyun.cn/ 此外,还有以下相关内容: 与 GPT4 交流制作 PPT 大纲的经验,通过迭代可获得较好的电商 PPT 大纲,WPS AI 能优化大纲和制作 PPT,还能进行主题配色和字体修改。 教师可利用 AI 减负,如通用 AI(通义、文心、智谱等)结合提示词,专用工具推荐如百度文库的橙篇,它集多种功能于一身,能满足科研、学术等领域需求。同时,还有免费工具讯飞智文和付费工具百度文库可用于 AI 制作 PPT,并展示了相关自动 PPT 效果。AI 辅助 PPT 的原理和作用包括提升效率和质量等。
2025-01-23
小白学习AI
对于小白学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,还可以参考《雪梅 May 的 AI 学习日记》,其适合纯 AI 小白,学习模式是输入→模仿→自发创造。学习内容可在 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新的内容。该日记中的学习资源都是免费开源的。 在理解技术原理与建立框架方面,可通过以下通俗易懂的内容: 1. 视频一主要回答了什么是 AI 大模型,原理是什么。 生成式 AI 生成的内容,叫做 AIGC。 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习。监督学习是有标签的训练数据,无监督学习是学习的数据没有标签,强化学习是从反馈里学习,最大化奖励或最小化损失。 深度学习参照人脑有神经网络和神经元。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 即大语言模型。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型。
2025-01-23
有没有歌词生成音乐的AI
以下是一些能够实现歌词生成音乐的 AI 工具: 1. 歌词爆改机@阶跃星辰繁星计划:这是一个微信小程序,可以把一首歌曲的歌词爆改成想要的版本,并生成专属音乐,UI 绝美。玩法链接:https://mp.weixin.qq.com/s?__biz=MzkyNzY0NDc4Nw==&mid=2247484386&idx=1&sn=a74db6692f4dd5735f66c47cb82fc5b9&scene=21wechat_redirect 2. LAIVE:这是一个利用 AI 技术一次性生成音乐、歌词、主唱等的创作平台。使用者可以选择自己喜欢的类型和情调,上传参考音源,AI 可以通过分析生成音乐。并且可以选择主唱和修改歌词,目前为开放测试阶段。链接:https://www.laive.io/ 输入促销代码 LAIVEcreator 可获得 50 代币(入口在个人资料),令牌有效期为输入代码后的 30 天,促销码失效日期为 4 月 17 日。
2025-01-23
xAI
以下是关于 xAI 的相关信息: 2024 年,Elon Musk 的 xAI 完成了 60 亿美元的 B 轮融资,公司估值达 240 亿美元。本轮融资由红杉资本、Valor Equity Partners 和 Fidelity 等参与。 7 月 15 日,马斯克在 Twitter Spaces 上完成了 xAI 首场且公开的动员大会,xAI 包括马斯克在内的 12 位成员,其中华人占 1/3,包括吴宇怀、杨格、张国栋以及戴自航。 xAI 的总体目标是构建一个优秀的 AGI,并以理解宇宙的真实本质为愿景,马斯克从物理学的视角探讨了一些关于宇宙的未解之谜,例如外星人的存在和重力的本质等。 xAI 的团队成员们希望让模型能够发现真相,不仅仅是重复从训练数据中学到的知识,而是能够提供真正的新见解和新发现。 马斯克指出 OpenAI 现在已经变得封闭且非常追求利润,与其最初的宗旨背道而驰。 这场直播会议的全部内容按时间顺序整理成了以下 12 个话题:xAI 创始成员的开场自述、xAI 的使命:宇宙本质与智能体、AGI 与个人计算资源、Twitter 数据与 xAI 的关系、创办 xAI 的初衷是什么?、特斯拉 Dojo,芯片以及训练推理、如何保证 xAI 的独立性?、xAI 如何造福人类?、真正的 AI 能理解物理世界、监管应与技术发展并行、xAI 会如何与外部合作?、xAI 与 OpenAI 差异,以及 Optimus。 创办 xAI 的初衷是允许 AI 说出它真正认为是真的东西,不要欺骗或保持政治正确,避免让 AI 面对不可能的目标和强迫其撒谎。
2025-01-23
AI生成PPT的流程
以下是 AI 生成 PPT 的流程: 1. 确定大纲: 可以让 GPT4 生成 PPT 大纲,但可能在理解题目和生成大纲上花费较多时间。例如,需要仔细思考题目要求,将题目抛给 GPT4 帮助理解,确定主题。 2. 导入大纲到工具生成 PPT: 以爱设计为例,其他工具操作方式大同小异,基于 Markdown 语法生成。 如使用 Process ON 工具: 网址:https://www.processon.com/ 输入大纲和要点:有两种方式,包括导入大纲和要点(手动复制或通过特定步骤导入),以及输入主题自动生成大纲和要求。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版后再点击下载。若使用 Process ON 且没有会员,可在某宝买一天会员。 3. 优化整体结构: 按照公司要求,自行优化字体、图片等元素,删改内容以达到心理预期。 4. 手动修改细节: 例如修改字体、纠正事实性错误等。
2025-01-23
新手小白,如何从0开始搭建AI Agent
对于新手小白从 0 开始搭建 AI Agent,以下是一些建议: 1. 规划阶段: 制定任务的关键方法,总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施阶段: 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善阶段: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 此外,还需要了解一些关于 AI Agent 的基本概念: AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括 Chain(通常一个 AI Agent 可能由多个 Chain 组成,一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量,大部分的 Chain 是大语言模型完成的 LLM Chain)、Router(可以使用一些判定,甚至可以用 LLM 来判定,然后让 Agent 走向不同的 Chain)、Tool(Agent 上可以进行的一次工具调用,例如对互联网的一次搜索,对数据库的一次检索)。 常见的 AI Agent 有 Responser Agent(主 agent,用于回复用户)、Background Agent(背景 agent,用于推进角色当前状态)、Daily Agent(每日 agent,用于生成剧本,配套的图片,以及每日朋友圈)。这些 Agent 每隔一段时间运行一次(默认 3 分钟),会分析期间的历史对话,变更人物关系、反感度等,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。
2025-01-23
你好,请问,哪家的智能体最适合处理excel表格
目前有以下几种智能体适合处理 Excel 表格: 1. Excel Labs:这是一个 Excel 插件,新增了基于 OpenAI 技术的生成式 AI 功能,可在 Excel 中直接进行数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的 AI 工具,整合了多种办公软件,能通过聊天形式让用户告知需求,自动完成如数据分析、格式创建等任务。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,用户可通过自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,除公式生成外,还能根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 随着技术发展,未来可能会有更多 AI 功能集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。但请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-02
如果想创建一个指导高中孩子学习的老师的智能体,我有几个问题:1. 是弄一个全科的智能体还是每门科单独弄一个智能体? 2. 国产哪家的AI产品弄这种智能体比较适合?也就是说回答100%能够正确,不会瞎说; 3.你有什么建议?
对于创建指导高中孩子学习的老师的智能体,以下是一些建议: 1. 关于是创建全科智能体还是每门科单独创建智能体,这取决于您的具体需求和使用场景。如果您希望能够全面、综合地指导学生的学习,全科智能体可能更合适;但如果您想要针对每门学科进行更深入、专业的指导,那么每门科单独创建智能体可能效果更好。 2. 目前国产的 AI 产品中,很难说哪一家 100%能够保证回答正确且不会瞎说。不同的产品在不同的领域和场景中可能表现各异。您可以考虑一些在教育领域有一定口碑和应用案例的产品,并进行充分的测试和评估。 3. 以下是一些创建智能体的建议: 明确智能体的职责和功能,例如是主要进行课程规划、生成测验还是提供学习指导等。 为智能体提供详细准确的提示词,清晰地描述其任务和目标。 像导演一样,将复杂的任务拆分成科学合理的步骤,并确保每个步骤的结果能为后续步骤提供基础。 对于生成的内容,要进行检查和优化,不断调整和改进智能体的表现。 此外,您还可以参考一些相关的提示词库,例如沃顿商学院给教师和学生的提示词库,其中包含了结构化题型设计师和测验生成器等方面的内容。同时,很多 AI 网站都支持创建智能体,您可以为其配置提示词、知识库和能力等。
2024-11-21
如果想创建一个指导高中孩子学习的老师的智能体,我有几个问题:1. 是弄一个全科的智能体还是每门科单独弄一个智能体? 2. 哪家的AI产品弄这种智能体比较适合?也就是说回答100%能够正确,不会瞎说; 3.你有什么建议?
对于创建指导高中孩子学习的老师的智能体,以下是一些建议: 1. 关于是创建全科智能体还是每门科单独创建智能体,这取决于您的具体需求和使用场景。如果您希望能够全面、综合地指导学生的学习,全科智能体可能更合适;但如果您想要针对每门学科进行更深入、专业的指导,那么每门科单独创建智能体可能效果更好。 2. 目前在创建这种智能体方面,一些常见的 AI 产品如 GPT4、Gemini 等都可以考虑。然而,要确保回答 100%正确且不会瞎说是具有一定难度的,因为 AI 的回答仍然受到数据和算法的限制。 3. 以下是一些额外的建议: 参考沃顿商学院给教师和学生的提示词库,例如其中的结构化题型设计师和测验生成器的相关提示。 像导演一样,将创建智能体的任务拆解成科学合理的步骤,明确每个步骤的目标和结果。 注意提示语的逻辑,将复杂任务拆分成多个相互关联的步骤,使前一步的结果成为后一步的基础。 很多 AI 网站都支持创建智能体,您可以根据配置信息、知识库和能力配置等来自行定制。
2024-11-21
目前市面上能力最强的AI模型是哪家的
目前市面上能力较强的 AI 模型来自多家公司和机构。 OpenAI 的 GPT4 是一个表现出色的大型多模态模型,在各种专业和学术基准测试中表现出与人类相当的水平。此外,OpenAI 还带来了其他优秀的模型,如 DALL·E 3 等。 Meta 开发的 Llama 3.1 是迄今为止最大版本,其在推理、数学、多语言和长上下文任务中能够与 GPT4 相抗衡,标志着首次开放模型缩小与专有前沿的差距。 谷歌 DeepMind 与纽约大学团队开发的 AlphaGeometry 在奥林匹克级几何问题基准测试中表现优异。 中国的 DeepSeek、零一万物、知谱 AI 和阿里巴巴等开发的模型在 LMSYS 排行榜上取得了优异的成绩,尤其在数学和编程方面表现出色,且在某些子任务上挑战了 SOTA。 Mistral 7B 是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 需要注意的是,AI 模型的能力评估会因不同的任务和应用场景而有所差异,且技术在不断发展和进步,新的更强的模型可能会不断涌现。
2024-11-18
你的知识库更新到什么时候,用的是哪家的大模型
以下是关于大模型的相关知识: 大模型与小模型的区别:小模型在特定任务上表现出色,但只能用于特定任务;大模型像多功能基础平台,能处理多种任务,应用范围广泛且拥有更多通识知识。 大模型的知识范围:大模型并不拥有无限知识,其知识来源于训练过程中接触的数据,这些数据有限,且训练后知识库不会自动更新,在某些特定或专业领域的知识可能不够全面。 大模型的运作机制:主要通过大量数据训练学习语言结构和模式,根据输入生成相应文本,类似于词语接龙游戏。 常见的大模型:包括 OpenAI 的 3.5 和 4 版本,微软 Bing 使用 4 和 3.5 的混合,谷歌的 Bard 由 PaLM 2 等基础模型驱动,Anthropic 的 Claude 2 具有非常大的上下文窗口,且不太可能恶意行事。 关于知识库的更新时间和使用的具体大模型,上述内容未明确提及。
2024-11-07
文生视频哪家强
目前在文生视频领域,以下是一些表现较为出色的产品: 1. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 2. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。其新模型在文生视频质量上有大幅提升,例如生成皮克斯风格的镜头效果出色,稳定性高,语义理解强,动作幅度大,在 3D 和 2D 动画效果方面表现优秀。 3. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,由 Stability AI 开源。 4. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 5. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 以下是 Sora 和其他模型能力的对比表格: |能力分类|能力|SORA|其他| ||||| |底层技术|架构|Transformer|UNet 为主| |底层技术|驱动方式|数据|图片| |对于真实世界的理解/模拟能力|世界理解能力|可理解世界知识|弱| |对于真实世界的理解/模拟能力|数字世界模拟|支持|不支持| |对于真实世界的理解/模拟能力|世界互动能力|支持|不支持| |对于真实世界的理解/模拟能力|3D 运动连贯性|强|弱| |对于真实世界的理解/模拟能力|物体一致性|强|弱| |对于真实世界的理解/模拟能力|物体持久性/连续性|强|弱| |对于真实世界的理解/模拟能力|文本理解|强|一般| |对于真实世界的理解/模拟能力|运动控制|其他|提示词提示词+运动控制工具| |基于模拟的视频编辑能力|无缝连接能力|强|弱| |基于模拟的视频编辑能力|视频到视频编辑|支持|部分| |基于模拟的视频编辑能力|扩展生成视频|前/后|后| |外显视频基础属性|视频时长|60 秒|2~4 秒| |外显视频基础属性|原生纵横比|支持|不支持| |外显视频基础属性|清晰度|1080P|最高 4K| 不同工具适合于不同的使用场景和需求,您可以根据自己的具体情况进行选择。
2024-10-15
开源项目数字人
以下是关于开源项目数字人的相关内容: 一、构建高质量的 AI 数字人 1. 构建数字人躯壳 建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。 开源数字人项目选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单。 卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。 2. 构建数字人灵魂 自建代码实现各模块开发工作量巨大,迭代难度高,对于个人开发者不现实。 推荐借助开源社区的力量,如 dify、fastgpt 等成熟的高质量 AI 编排框架,它们有大量开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等。 在开源项目中,使用了 dify 的框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于这两个接口就可以将数字人的语音识别和语音生成都交由 Dify 控制,从而低门槛做出自己高度定制化的数字人。具体的部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。 如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台,然后部署自己的模型。 数字人 GUI 工程中仍然保留了 LLM、ASR、TTS、Agent 等多个模块,能够保持更好的扩展。 上述 Dify 接口使用注意事项: 必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。 二、写在最后 数字人在未来肯定会有很多的应用场景,比如家庭中有数字人管家,全面接管智能家居或其他设备;学校中有数字人老师,孜孜不倦的为学生答疑解惑;商场里有数字人导购,为顾客提供指路、托管个人物品等悉心服务。 数字人在未来肯定还有很多的技术突破,比如可以将五感数据作为输入(例如声音、图像、气味、震动等等),将所有可以控制躯壳的参数也作为输入(例如躯壳骨骼节点,面部混合形状参数等);次世代的算法可以自我迭代升级,也可以拿到感官输入以及躯壳控制方法后,自行演化躯壳控制方式。 作者希望通过 Dify 搭建数字人的开源项目,给大家展现低门槛高度定制数字人的基本思路,但数字人的核心还是在于我们的 Agent,也就是数字人的灵魂,怎样在 Dify 上面去编排专属自己的数字人灵魂是值得大家自己亲自体验的。真诚的希望看到,随着数字人的多模态能力接入、智能化水平升级、模型互动控制更精确,用户在需要使用 AI 的能力时,AI 既可以给你提供高质量的信息,也能关注到你的情绪,给你一个大大的微笑,也许到了那时,数字世界也开始有了温度。
2025-01-22
我能否借助开源社区力量构建高质量的 AI 数字人
您可以借助开源社区力量构建高质量的 AI 数字人。 构建数字人的躯壳有多种方式: 1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,代表是 Live2D Cubism。 2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高,代表是 UE、Unity、虚幻引擎 MetaHuman 等,但个人学习在电脑配置和学习难度上有一定门槛。 3. AIGC:省去建模流程直接生成数字人的展示图片,但存在算法生成的数字人很难保持 ID 一致性、帧与帧连贯性差等弊端。如果对人物模型真实度要求不高,可以使用,典型项目有 wav2lip、videoretalking 等。AIGC 还有直接生成 2D/3D 引擎模型的方向,但仍在探索中。 构建数字人的灵魂需要注意以下几个工程关键点: 1. AI Agent:要让数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建都是挑战。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:由于算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。 4. 多元跨模态:不仅仅是语音交互,还可以通过添加摄像头数据获取数据,再通过系列 CV 算法做图像解析等。 5. 拟人化场景:正常和人交流时不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。 如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此推荐借助开源社区的力量,现在开源社区已经有了像 dify、fastgpt 等等成熟的高质量 AI 编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了 dify 的框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由 Dify 控制,从而低门槛做出来自己高度定制化的数字人。具体的部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台,然后部署自己的模型。此外,数字人 GUI 工程中仍然保留了 LLM、ASR、TTS、Agent 等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加 Geek 的 Agent 实现也可以选择直接后端编码扩展实现。 使用 Dify 接口需要注意: 1. 必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。
2025-01-21
方案一生成的数字人效果怎么样
生成数字人的效果因使用的工具和方法而异。以下是一些常见的情况: 在剪映中生成数字人: 打开“数字人”选项,选择免费且适合的形象,如“婉婉青春”,软件会播放其声音,可判断是否需要,点击“添加数字人”将其添加到视频中,剪映会根据提供的内容生成对应音视频并添加到轨道中。左下角会提示渲染完成时间,可点击预览按钮查看效果。 腾讯的 MimicMotion 项目: 效果显著优于阿里,支持面部特征和唇形同步,不仅用于跳舞视频,也可应用于数字人。其优化包括基于置信度的姿态引导机制确保视频连贯流畅、基于姿态置信度的区域损失放大技术减少图像扭曲变形、创新的渐进式融合策略实现任意长度视频生成。项目地址:https://github.com/tencent/MimicMotion 节点地址:https://github.com/AIFSH/ComfyUIMimicMotion 此外,还有适合小白用户的开源数字人工具,如: 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G+3G 语音模型包,启动模型即可。 GitHub: 官网:
2025-01-21
我想组织一个团队,完成属于自己的一套数字人制作技术
以下是组织一个团队完成属于自己的一套数字人制作技术的相关内容: 方案一:剪映数字人“个性化“—无限免费私模数字人 1. 准备谷歌账号(可在淘宝或“”购买)。 2. 第一步:打开谷歌浏览器,点击链接https://github.com/facefusion/facefusioncolab 并点击 open colab 进入程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”,无需安装和付费。点击红框对应的 URL 打开操作界面。 3. 第二步:点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”生成。 4. 第三步:等待专属数字人视频出炉。 方案二:借助开源社区力量构建高质量的 AI 数字人 1. 推荐借助开源社区的像 dify、fastgpt 等成熟的高质量 AI 编排框架,它们有大量开源工作者维护,集成各种主流模型供应商、工具及算法实现等。 2. 可通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。 在开源项目中,使用 dify 框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,实现相对复杂功能,如知识库搭建、工具使用等,无需编码和重新部署工作。 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于此可将数字人的语音识别和语音生成都交由 Dify 控制,低门槛做出高度定制化的数字人。具体部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。 若有更高度定制的模型,也可在 Dify 中接入 XInference 等模型管理平台部署自己的模型。 数字人 GUI 工程中保留了 LLM、ASR、TTS、Agent 等多个模块,能保持更好的扩展。 注意事项: 1. 使用 Dify 接口时,必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,可自行选择方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可根据个人喜好添加。 制作数字人的工具: 1. HeyGen:AI 驱动的平台,可创建逼真的数字人脸和角色,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后合成逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化,使用时请遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2025-01-21
ai数字人怎么生成
生成 AI 数字人主要有以下步骤: 1. 在剪映中生成数字人: 打开剪映右侧窗口顶部的“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。 软件会播放数字人的声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,软件会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。 2. 增加背景图片: 删除先前导入的文本内容,因为视频音频已包含文字。 点击左上角“媒体”菜单并“导入”,选择本地图片上传,如一张书架图片,点击图片右下角加号添加到视频轨道(会覆盖数字人)。 拖动轨道最右侧竖线使图片与视频对齐,选中轨道,拖动图片角放大到合适尺寸,并将数字人拖动到合适位置。 3. 增加字幕: 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段形成字幕。 4. 算法驱动的数字人实现流程: 核心算法包括 ASR(语音识别),能将用户音频数据转化为文字,便于数字人理解和生成回应。 AI Agent(人工智能体)充当数字人大脑,可接入大语言模型,拥有记忆模块等使其更真实。 TTS(文字转语音)将数字人依靠 LLM 生成的文字输出转换为语音。 完成上述步骤后,点击右上角“导出”按钮导出视频备用。若希望数字人换脸,则需使用其他工具。
2025-01-20
数字人
数字人是运用数字技术创造出来的人,虽现阶段不能如科幻作品中的人型机器人般高度智能,但已在生活各场景中常见,且随 AI 技术发展迎来应用爆发。目前业界对其无准确定义,一般按技术栈分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视行业及直播带货,表现质量与手动建模精细度及动捕设备精密程度直接相关,不过视觉算法进步使无昂贵动捕设备时,通过摄像头捕捉人体骨骼和人脸关键点信息也能有不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,能创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等。 2. Synthesia:AI 视频制作平台,可创建虚拟角色并进行语音和口型同步,支持多种语言,用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音并合成逼真说话视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。使用这些工具时,请遵守相关使用条款和隐私政策,注意生成内容的版权和伦理责任。 以下是一些包含数字人的节目单示例: 1. 节目“猜真人”:魔术互动类表演,2 个、8 个数字分身,猜哪个是真正的我,需求技术为 AI 数字人。 2. 节目“亲情的应用场景(逝者)”:女儿打扫房间扫到去世父亲二维码再次对话,涉及 AI 分身积累准备。 3. 节目“AI 转绘”:经典电影混剪,涉及短片素材、AI 转绘、Lora 等。 4. 节目“AI 贺岁”:晚会中场致谢,包括共创团队记录、新年祝福等。 5. 节目“打工人共情”:涉及 AI 素材、共情脚本、炫技视频剪辑等。
2025-01-20