Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么训练AI数字人说话的语气和语调

Answer

训练 AI 数字人说话的语气和语调可以从以下几个方面入手:

  1. AI Agent:要让数字人像人一样思考,需要编写一个类似人的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建具有挑战性。
  2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式有 HTTP、webSocket 等。但包含情绪的语音表达以及保证躯壳的口型、表情、动作和语音的同步及匹配方面,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但多为闭源,效果可参考 Nvidia 的 Audio2Face 或 Live Link Face + Face AR Sample。
  3. 实时性:由于数字人的算法部分组成庞大,几乎不能单机部署,算法一般部署到额外的集群或调用提供的 API,会涉及网络耗时和模型推理耗时,低延时是亟需解决的问题。
  4. 多元跨模态:不仅要有语音交互,还可根据实际需求添加其他感官交互,如通过添加摄像头数据获取视觉信息,再通过 CV 算法做图像解析。
  5. 拟人化场景:正常与人交流并非线性对话,插话、转移话题等情景需通过工程进行丝滑处理。

此外,对于数字人说话相关的算法开源代码有很多,如 ASR 语音识别方面有 openai 的 whisper、wenet、speech_recognition 等;AI Agent 方面大模型有 ChatGPT、Claude、ChatGLM 等,Agent 部分可使用 LangChain 的模块自定义;TTS 方面有微软的 edge-tts、VITS、so-vits-svc 等。

如果都要自建代码实现各模块,开发工作量巨大,迭代难度高,个人开发者可借助开源社区的力量,如 dify、fastgpt 等成熟的高质量 AI 编排框架,通过这些框架快速编排出自己的 AI Agent。在开源项目中,使用 dify 框架可利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,实现相对复杂的功能。同时,Dify 的 API 暴露了 audio-to-text 和 text-to-audio 两个接口,基于此可将数字人的语音识别和语音生成都交由 Dify 控制。使用 Dify 接口时需注意必须在应用编排功能中打开文字转语音和语音转文字功能,且只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI 数字人-定义数字世界中的你

有了数字人躯壳,我们就需要构建数字人的灵魂,让数字人具备各种智能,比如记得你的个人信息,充当你的个人助手;在某个领域具备更专业的知识;能处理复杂的任务等等。这些能力实现有以下几个需要注意的工程关键点:1.AI Agent:我们要想数字人像人一样思考就需要写一个像人一样的Agent,工程实现所需的记忆模块,工作流模块、各种工具调用模块的构建都是挑战;2.驱动躯壳的实现:灵魂部分怎样去驱动躯壳部分,我们可以将灵魂部分的所有接口定义出来,然后躯壳部分通过API调用,调用方式可以是HTTP、webSocket等等,视躯壳部分的实现而定。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对来说成熟一些,但都是闭源的,效果可以参考Nvidia的Audio2Face(https://www.nvidia.cn/omniverse/apps/audio2face/)或则Live Link Face(Iphone APP)+Face AR Sample(UE);3.实时性:由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。4.多元跨模态:仅仅是语音交互的数字人是远远不够的,人有五感(听觉、视觉、嗅觉、触觉、味觉),听觉只是其中一种,其他的感官可以根据实际需求来做,比如视觉我们可以通过添加摄像头数据来获取数据,再通过系列CV算法做图像解析等;5.拟人化场景:我们正常和人交流的时候不是线性对话,会有插话、转移话题等情况,这些情景如何通过工程丝滑处理。

AI 数字人-定义数字世界中的你

上述算法开源的代码有很多,这里列出一些仓库供大家参考:ASR语音识别openai的whisper:https://github.com/openai/whisperwenet:https://github.com/wenet-e2e/wenetspeech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口):https://github.com/Uberi/speech_recognitionAI Agent大模型部分就比较多了,包括ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。Agent部分可以使用LangChain的模块去做自定义,里面基本包含了Agent实现的几个组件(https://www.langchain.com/)TTS微软的edge-tts:https://github.com/rany2/edge-tts,只能使用里面预设的人物声音,目前接口免费。VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits系列可以自己训练出想要的人声。so-vits-svc:https://github.com/svc-develop-team/so-vits-svc,专注到唱歌上面,前段时间很火的AI孙燕姿。除了算法,人物建模模型可以通过手动建模(音频驱动)或者AIGC的方式生成人物的动态效果(例如wav2lip模型)实现,这样就完成了一个最简单的数字人。当然这种简单的构建方式还存在很多的问题,例如:如何生成指定人物的声音?TTS生成的音频如何精确驱动数字人口型以及做出相应的动作?数字人如何使用知识库,做出某个领域的专业性回答?

AI 数字人-定义数字世界中的你

上述种种,如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此我们推荐借助开源社区的力量,现在开源社区已经有了像dify、fastgpt等等成熟的高质量AI编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了dify的框架,利用其编排和可视化交互任意修改流程,构造不同的AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时Dify的API暴露了audio-to-text和text-to-audio两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由Dify控制,从而低门槛做出来自己高度定制化的数字人(如下图),具体的部署过程参考B站视频:https://www.bilibili.com/video/BV1kZWvesE25。如果有更加高度定制的模型,也可以在Dify中接入XInference等模型管理平台,然后部署自己的模型。此外,数字人GUI工程中仍然保留了LLM、ASR、TTS、Agent等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加Geek的Agent实现也可以选择直接后端编码扩展实现。上述Dify接口使用注意事项:1.使必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。2.只有接入了支持TTS和SPEECH2TEXT的模型供应商,才会在功能板块中展示出来,Dify的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。

Others are asking
ai免费生成视频
以下是一些免费生成 AI 视频的工具及相关信息: 1. Hidreamai(国内,有免费额度) 网址:https://hidreamai.com//AiVideo 支持文生视频、图生视频。 提示词使用中文、英文都可以。 文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内) 网址:https://etna.7volcanoes.com/ 是一款由七火山科技开发的文生视频 AI 模型,可根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达 4K,最高 38402160,画面细腻逼真,帧率 60fps。支持中文,时空理解。 3. Dreamina(国内内测,有免费额度) 网址:https://jimeng.jianying.com/aitool/video/generate 支持文生视频、图生视频,视频生视频。 支持图生视频首尾帧功能。 提示词使用中文、英文都可以。 文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸。默认生成 3s 的视频。 4. 可灵(免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸。默认生成 5s 的视频。 此外,还有 Runway 可生成 AI 视频: 网页:https://runwayml.com/ 注册零门槛:右上角 Sign Up 注册,输入邮箱与基础信息,完成邮箱验证即可完成注册。 选择 Try For Free 模式:所有新注册用户会有 125 个积分进行免费创作(约为 100s 的基础 AI)。 生成第一个视频步骤:①选择左侧工具栏“文字/图片生成视频”;③将图片拖入框内;④选择一个动画系数;⑤点击生成 4 秒视频;⑥下载视频。
2025-01-14
ai视频制作
如果您想用 AI 把小说做成视频,一般可以按照以下流程进行: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 在 AI 春晚采访中,AI 视频制作的分工包括: 1. 制片人AJ:负责影片的制作管理,包括团队组建、日程安排、信息收集、资料整理、各处岗位工作缺失时及时补上等。 2. 图像创意??:负责用 AI 生成富有想象力的角色和场景等所有出现在视频中的画面,并为每个角色赋予人物小传。 3. 视频制作??:将做好的角色场景等图像素材进行 AI 图生文的工作,需要擅长运营工具的笔刷等控制工具,更好的契合剧本。 4. 编剧?:负责撰写剧本,包括故事情节、角色串联、人物台词等。 5. 配音和配乐?:这里涉及到背景音乐、音效、角色配音、声音克隆,用各种声音类 AI 工具捏出来。 6. 剪辑师?:负责把后期剪辑,包括镜头选择、节奏控制和音效配合。 在 8 分钟 AI 视频制作《冷湖案例》中,首先很高兴参与相关活动,在制作过程中有“完成比完美更重要”的感悟。以《俄博梁纪元》AI 视频为例,视频长达 8 分半,制作陆陆续续花了一个月时间。从片头开始,镜头想法是需要视线聚焦到中心的圆形细胞,并保持固定,方便后续画面的转场。由于单张 AI 图生视频的动效太简单,分了几个图层进行处理,还叠加了几个画面来丰富画面。
2025-01-14
如何把已经写好的内容放入ai做ppt,并且ai不会自动扩展。
要将已写好的内容放入 AI 做 PPT 且不让 AI 自动扩展,可以参考以下方法: 1. 使用 Kimi.ai 等工具将思维导图图片转成 PPT。 2. 对于 AI 辅助生成 PPT,其原理和作用包括: 减轻排版工作的压力。 生成打底的内容,减轻人写内容的工作。 文章生成 PPT 时,让 AI 帮忙摘要内容,生成大纲列表;主题生成 PPT 时,让 AI 根据主题扩充成大纲列表,乃至具体内容。 在特定场景下可直接使用,如学生快速为小组展示配 PPT。 3. 具体流程为:用户输入内容,AI 输出,然后通过排版网站处理。网站把 AI 输出的文本丢给 LLM,让其根据内容在已有的 UI 组件中选择更适合的组件,按时间线为每页 PPT 的文字选出整个 PPT 中每一页的 UI 组件。有的网站如 tome、gamma,配图也是由 GenAI 根据页面内容生成的。 4. 另外,还可以参考以下案例中的方法,如在办公场景中,用 ChatGPT 生成 Markdown 语法的内容,再借用 MindShow 工具把 Markdown 内容转换为精美的 PPT。
2025-01-14
如何用AI做PPT
以下是一些用 AI 做 PPT 的方法和相关工具: 1. 好用的 AI PPT 工具: Gamma:在线 PPT 制作网站,可通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式。网址:https://gamma.app/ 美图 AI PPT:由美图秀秀团队推出,通过输入简单文本描述生成专业设计。网址:https://www.xdesign.com/ppt/ Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能。网址:https://www.mindshow.fun/ 讯飞智文:科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术。网址:https://zhiwen.xfyun.cn/ 2. 制作经验分享: 卓 sir 分享了自己使用 AI 完成 PPT 的经历,用到的 AI 工具包括 GPT4、WPS AI 和 chatPPT。 熊猫 Jay 因企业内部要求编写了相关培训材料,介绍了通过 AI 工具高效制作 PPT 的思路,并提到了市面上受欢迎的 5 款 AI PPT 工具,如 MindShow、爱设计、闪击、Process ON、WPS AI。
2025-01-14
0基础学Ai
对于 0 基础学习 AI,您可以参考以下步骤: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念。 了解人工智能是什么,其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 一定要掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,“AI 编程共学”活动中也有相关分享: |时间|分享材料|话题内容|分享人| ||||| |10 月 28 日 20:00 开始(回放链接:)|通往 AGI 之路增量小游戏 https://muykeee.github.io/waytoagiincremental/ 转生之我是野菩萨 https://muykeee.github.io/wildpusaincremental/|0 基础做小游戏分享:通往 AGI 之路增量小游戏 转生之我是野菩萨|麦橘| |10 月 29 日 20:00 开始(|0 编程基础入门 Cursor 极简使用指南|梦飞| |10 月 30 日 20:00 开始(回放链接)| AI 拍立得:小程序:Pailido|0 基础学做 AI 拍立得:Coze 工作流实现手把手教学 AI 拍立得开源代码开箱即用|银海| |10 月 31 日 20:00 开始(回放链接)||0 基础做小游戏分享:猪猪🐷撞南墙|南墙|
2025-01-14
AI是什么
AI 是一门令人兴奋的科学,它是某种模仿人类思维可以理解自然语言并输出自然语言的东西,其生态位是一种似人而非人的存在。 对于没有理工科背景的人来说,把 AI 当成一个黑箱即可,只需要知道它能理解自然语言并输出自然语言。 最初,计算机是按照明确定义的程序(即算法)来对数字进行运算。但对于像根据照片判断一个人的年龄这类任务,我们无法明确编程,因为不清楚大脑完成此任务的具体步骤,而这类任务正是 AI 所感兴趣的。 AI 技术无论如何发展,其生态位仍似人而非人。我们可以从人类文明传说和古老哲人的智慧中寻找与 AI 这类似人非人存在相处的原则,比如想让其实现愿望时,要通过语言文字尽可能压缩其自由度,清晰告知其任务、边界、目标、实现路径方法以及所需的正确知识。
2025-01-14
我有一个内容很长的现场录音转文字发言稿,有什么工具可以去掉里面的语气词,自动处理为正常可读的文字稿
目前有一些工具可以帮助您处理这类需求,例如: 1. 讯飞听见:具有语音转文字及文字优化处理的功能。 2. 网易见外:能对转写的文字进行一定的优化和整理。 您可以根据自己的需求和使用习惯选择适合的工具。
2024-10-18
举例说明,意图和FAQ训练的区别
意图和 FAQ 训练是两种不同的概念。 意图训练主要侧重于理解用户的核心意图或目的。例如,在一个客服场景中,用户的意图可能是查询产品信息、寻求技术支持或进行投诉等。通过对大量的用户交互数据进行分析和学习,模型能够识别出这些不同的意图类别。 FAQ 训练则侧重于常见问题及其对应的标准答案。比如常见的“产品如何退换货”“售后服务的联系方式是什么”等问题,以及相应的准确回答。 总的来说,意图训练更注重对用户目的的分类和理解,而 FAQ 训练更侧重于对特定常见问题的准确回答。
2025-01-13
如何成为AI训练师
成为 AI 训练师需要以下几个方面的努力: 1. 扎实的基础知识:就像医学生从化学和生物学基础课程开始一样,AI 训练师也需要掌握相关的基础知识,例如数学、统计学、计算机科学等。 2. 领域专业知识:针对特定的应用领域,如医疗保健,需要深入了解该领域的专业知识,包括原理、流程和实践经验。 3. 学习方式:通过正规的学校教育和实践学徒的方式,从该领域最出色的实践者那里学习,积累经验和直觉。 4. 模型训练方法:不应仅仅依靠大量的数据和生成模型,而是采用堆叠模型的方式进行训练,例如先训练生物学模型,再添加特定领域的数据点。 5. 持续学习和创新:鉴于 AI 的发展特性,要不断学习新的技术和方法,探索更有效的训练方式。 同时,利用 AI 进行教育和自学也是提升自身能力的途径,但要注意对关键数据进行核实,避免 AI 产生的幻觉导致错误。
2025-01-13
想开发一套针对小学生的AI寒假训练营,教一些简单的代码之类的 你可以给我推荐一些让小朋友体验的AI工具吗
目前针对小学生的 AI 工具,以下几种可能较为适合他们体验: 1. Scratch:这是一款图形化编程工具,通过拖拽积木块的方式就能创建程序,非常直观易懂,有助于培养孩子的逻辑思维和创造力。 2. Code.org:提供了丰富的编程课程和项目,包括简单的代码编写,界面友好,适合初学者。 3. Tynker:具有趣味性的编程学习平台,有很多小游戏和项目可以让孩子在玩中学习编程知识。 需要注意的是,在让小朋友使用这些工具时,要给予适当的指导和监督,确保他们能够正确理解和使用。
2025-01-11
增量预训练
以下是关于增量预训练的相关内容: Atom 系列模型的预训练: Atom 系列模型包含 Atom7B 和 Atom13B,基于 Llama2 做了中文能力的持续优化。 采用大规模的中文数据进行持续预训练,数据来源广泛,包括百科、书籍、博客、新闻、公告、小说、金融数据、法律数据、医疗数据、代码数据、专业论文数据、中文自然语言处理竞赛数据集等,并对数据进行过滤、打分、去重,筛选出超过 1T token 的高质量中文数据持续加入训练迭代。 针对 Llama2 模型的词表进行深度优化,扩展词库至 65,000 个单词,提高中文编码/解码速度约 350%,扩大中文字符集覆盖范围,包括所有 emoji 符号。 默认支持 4K 上下文,利用位置插值 PI 和 Neural Tangent Kernel(NTK)方法,经过微调可将上下文长度扩增到 32K。 GPT 助手的预训练: GPT 以完全随机的权重开始,随着训练时间增长,输出会越来越连贯和一致。 预训练阶段占用了训练计算时间和浮点运算的 99%,是所有计算工作主要发生的地方。 收集大量数据,如 Common Crawl、C4、GitHub、维基百科、图书、ArXiv、StackExchange 等,按照一定比例采样形成训练集。 在训练前需进行预处理步骤 Tokenization(分词/标记化),将原始文本翻译成整数序列。
2025-01-10
大模型训练是什么
大模型训练是一个复杂的过程,通俗来讲,就是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够进行文本生成、推理问答、对话、文档摘要等工作。 其过程可以类比为上学参加工作: 1. 找学校:训练大模型需要大量的计算资源,如大量的 GPU。 2. 确定教材:大模型需要海量的数据,通常几千亿序列(Token)的输入是基本标配。 3. 找老师:选择合适的算法来讲述“书本”中的内容,让大模型更好地理解 Token 之间的关系。 4. 就业指导:为了让大模型更好地胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。 一般来说,大模型训练有以下关键步骤: 1. 无监督学习:模型通过分析大量文本数据,学习语言的基本结构和常识,具备文本补齐能力,将人类的知识通过向量化的方法转换,从而获得基础的语言模型。 2. 清洗出好的数据。 3. 指令微调:模型被训练以理解并执行具体指令,如翻译文本,从而能够回答问题。 4. 对齐过程:通过引入人类的评价标准(奖励函数)和处理特定的格式要求,进一步优化模型的输出以符合人类的期望,包括处理文化、道德等方面的细节。 虽然具体的实现细节可能是各公司的机密,但大体上,这些步骤共同构成了构建一个高效、实用的大语言模型的过程,最终产生的模型可能含有高达 1750 亿个参数。在开源与闭源模型的开发策略中,开源模型依赖于社区的贡献和集体智慧,而闭源模型则通常由企业投入大量资源进行开发。 需要注意的是,在面对大模型训练这样的新技术和概念时,要保持开放和谨慎的态度,深入了解其技术背景、工作原理以及在实际应用中的作用和影响,避免形成错误的观念。同时,所有工程实现的东西都需要做很多技术的折中,不要过分美化这个过程。
2025-01-10
用于训练销售助手类型业务的私有模型
以下是关于训练销售助手类型业务私有模型的相关信息: 1. 提示词方面:设计了一套模拟江南皮革厂销售的拟人化提示词模板,并将其应用于国内的豆包角色扮演模型,生成吸引人的广告词。若与语音技术结合用于宣传,能创造出有趣且有效的销售助手,吸引顾客注意。拟人化提示词母体可通过关注作者微信领取。 2. 增加私有知识方面:通过前面步骤拥有可与客户对话的 AI 助手后,若想让其像公司员工一样精准专业回答商品相关问题,需为大模型应用配置知识库。例如在售卖智能手机的公司,网站上有很多相关信息,不同机型的详细配置清单可参考相关文档。
2025-01-07