直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

声音复刻

回答

声音复刻相关内容如下:

  • GPT-SoVITS 实现 AIyoyo 声音克隆:
    • 前置数据获取处理:选择音频,开启切割;有噪音时,进行降噪处理;降噪处理完成,开启离线 ASR。
    • GPT-Sowits-TTS:训练集格式化需开启一键三连,耐心等待;包括微调训练、推理,推理时开始推理-刷新模型-选择微调后的模型-yoyo,成功后会出现新的 URL 表明声音微调完毕。
    • 声音复刻:可以开启声音复刻之旅,能够实现跨多语种语言的声音。
    • 实践的样本:AIyoyo 普通话-满江红满江红普通话.wav 、AIyoyo 粤语版-满江红满江红粤语.wav
  • GPT-SoVITS 实现声音克隆:
    • GPT-SoVITS 是一个声音克隆和文本到语音转换的开源 Python RAG 框架。只需 1 分钟语音即可训练一个自己的 TTS 模型,5 秒数据就能模仿,1 分钟的声音数据就能训练出高质量的 TTS 模型,完美克隆声音。主要特点包括零样本 TTS、少量样本训练、跨语言支持、易于使用的界面、适用于不同操作系统、提供预训练模型。
    • GitHub:https://github.com/RVC-Boss/GPT-SoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/
  • TTS 数据整理:
    • 开源 TTS 数据汇总:
      • 大量语音数据的汇总:[https://github.com/RevoSpeechTech/speech-datasets-collection]
      • TTS - WenetSpeech4TTS:12,800 小时的配对音频 - 文本数据:[https://huggingface.co/datasets/Wenetspeech4TTS/WenetSpeech4TTS]
      • TTS - 米哈游 - 星穹铁道:包含中文和日语英文韩语,请注意版权问题![https://github.com/AI-Hobbyist/StarRail_Datasets]
      • TTS - 米哈游 - 原神:包含中文和日语英文韩语,请注意版权问题![https://github.com/AI-Hobbyist/Genshin_Datasets]
      • TTS - 赛博朋克 2077:请注意版权问题![https://openi.pcl.ac.cn/Stardust_minus/fish-speech/datasets]
      • TTS - 中文 - baker 标贝女声:12 小时[https://www.data-baker.com/open_source.html]
      • TTS - 中文 - Aishell-3:85 小时多说话人数据[http://www.aishelltech.com/aishell_3]
      • TTS - 中文 - DiDiSpeech:500 人 60 小时,但目前已经 404 无法再获取[https://outreach.didichuxing.com/research/opendata/]
      • TTS - 中文 - OpenSLR:提供各种语言的合成、识别等语料[https://www.openslr.org/resources.php]
      • TTS - 中文 - zhvoice:3200 说话人 900 小时,用于声音复刻,合成,识别等[https://github.com/fighting41love/zhvoice]
      • TTS - 英文 - LibriTTS:基于 Librispeech 筛选而来,更适合用于做 TTS,采样率 24k,大约 585 小时 2,456 人,其中的 train-clean-100 包含 53.8 小时/247 个发言人[https://www.openslr.org/60/]
      • TTS - 英文 - LJ Speech:大约 24 小时[https://keithito.com/LJ-Speech-Dataset/]
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

GPT-SoVITS-实现 AIyoyo 声音克隆

1.[heading4]微调训练[content]1.开启SoVITS训练,&开启GPT训练[heading4]推理[content]1.开始推理-刷新模型-选择微调后的模型-yoyo[heading4]成功[content]出现新的URL,说明你自己的声音微调完毕,然后可以进行啦[heading3]四、声音复刻[heading4]开启声音复刻之旅吧[content]1.实现跨多语种语言的声音,不是梦[heading4]实践的样本[content]AIyoyo普通话-满江红[满江红普通话。wav](https://drive.weixin.qq.com/s?k=AJMA1Qc4AAwbkbzYu0AQ8AbQYrAGo)AIyoyo粤语版-满江红[满江红粤语。wav](https://drive.weixin.qq.com/s?k=AJMA1Qc4AAwsRaRfHrAQ8AbQYrAGo)[heading2]五、关于我[content]大家好~我是yoyo🐱🐈坐标北京,铲屎官一枚🫡AIGC的小白,持续进阶成长,致力于打造一个自己的智能体☕️以上期待能够给到各位一点启发感谢家属带我在“[通往AGI之路](https://waytoagi.feishu.cn/wiki/QPe5w5g7UisbEkkow8XcDmOpn8e)”打开新世界,接触有趣的事情,结识有趣的人

GPT-SoVITS实现声音克隆

GPT-SoVITS:只需1分钟语音即可训练一个自己的TTS模型。GPT-SoVITS是一个声音克隆和文本到语音转换的开源Python RAG框架。5秒数据就能模仿你,1分钟的声音数据就能训练出一个高质量的TTS模型,完美克隆你的声音!根据演示来看完美适配中文,应该是目前中文支持比较好的模型。界面也易用。主要特点:1、零样本TTS:输入5秒的声音样本即可体验即时的文本到语音转换。2、少量样本训练:只需1分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。3、易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和GPT/SoVITS模型。4、适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括Windows。5、预训练模型:项目提供了一些已经训练好的模型,你可以直接下载使用。GitHub:[https://github.com/RVC-Boss/GPT-SoVITS](https://t.co/BpHX4SlsO3)[…](https://t.co/BpHX4SlsO3)视频教程:[https://bilibili.com/video/BV12g4y1m7Uw/](https://t.co/Uo7WtSSUGO)[…](https://t.co/Uo7WtSSUGO)[[twi]@小互(@_twi(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/RymsbKdweody4Cxwtsqc7Yuenxd?allow_redirect=1)使用:

TTS 数据整理

|汇总||大量语音数据的汇总|https://github.com/RevoSpeechTech/speech-datasets-collection||-|-|-|-||TTS|WenetSpeech4TTS|12,800小时的配对音频-文本数据|[https://huggingface.co/datasets/Wenetspeech4TTS/WenetSpeech4TTS](https://huggingface.co/datasets/Wenetspeech4TTS/WenetSpeech4TTS)||TTS|[米哈游-星穹铁道](https://github.com/AI-Hobbyist/StarRail_Datasets)|包含中文和日语英文韩语,请注意版权问题!|https://github.com/AI-Hobbyist/StarRail_Datasets||TTS|[米哈游-原神](https://github.com/AI-Hobbyist/Genshin_Datasets)|包含中文和日语英文韩语,请注意版权问题!|[https://github.com/AI-Hobbyist/Genshin_Datasets](https://github.com/AI-Hobbyist/Genshin_Datasets)||TTS|赛博朋克2077|请注意版权问题!|[https://openi.pcl.ac.cn/Stardust_minus/fish-speech/datasets](https://openi.pcl.ac.cn/Stardust_minus/fish-speech/datasets)||TTS-中文|[baker标贝女声](https://www.data-baker.com/open_source.html)|12小时|[https://www.data-baker.com/open_source.html](https://www.data-baker.com/open_source.html)||TTS-中文|[Aishell-3](http://www.aishelltech.com/aishell_3)|85小时多说话人数据|[http://www.aishelltech.com/aishell_3](http://www.aishelltech.com/aishell_3)||TTS-中文|[DiDiSpeech](https://outreach.didichuxing.com/research/opendata/)|500人60小时,但目前已经404无法再获取|[https://outreach.didichuxing.com/research/opendata/](https://outreach.didichuxing.com/research/opendata/)||TTS-中文|[OpenSLR](https://www.openslr.org/resources.php)|提供各种语言的合成、识别等语料|https://www.openslr.org/resources.php||TTS-中文|zhvoice|3200说话人900小时,用于声音复刻,合成,识别等|[https://github.com/fighting41love/zhvoice](https://github.com/fighting41love/zhvoice)||TTS-英文|LibriTTS|基于Librispeech筛选而来,更适合用于做TTS,采样率24k,大约585小时2,456人,其中的train-clean-100包含53.8小时/247个发言人|[https://www.openslr.org/60/](https://www.openslr.org/60/)||TTS-英文|LJ Speech|大约24小时|[https://keithito.com/LJ-Speech-Dataset/](https://keithito.com/LJ-Speech-Dataset/)|

其他人在问
声音复刻
声音复刻主要通过 GPTSoVITS 来实现,以下是相关步骤和信息: 1. 前置数据获取处理: 选择音频并进行切割。 若有噪音,进行降噪处理。 降噪处理完成后,开启离线 ASR。 2. GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理,刷新模型,选择微调后的模型(如 yoyo)。 3. 声音复刻:开启声音复刻之旅,可实现跨多语种语言的声音。 4. 实践的样本: AIyoyo 普通话 满江红 AIyoyo 粤语版 满江红 GPTSoVITS 是一个声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点: 1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感。 3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 6. 预训练模型:项目提供了一些已经训练好的模型,你可以直接下载使用。 GitHub: 视频教程: 此外,还有以下开源 TTS 数据可供参考: |汇总|大量语音数据的汇总| |||| |TTS|WenetSpeech4TTS|12,800 小时的配对音频 文本数据| |TTS| |TTS| |TTS|赛博朋克 2077|请注意版权问题!| |TTS中文| |TTS中文| |TTS中文| |TTS中文| |TTS中文|zhvoice|3200 说话人 900 小时,用于声音复刻,合成,识别等| |TTS英文|LibriTTS|基于 Librispeech 筛选而来,更适合用于做 TTS,采样率 24k,大约 585 小时 2,456 人,其中的 trainclean100 包含 53.8 小时/247 个发言人| |TTS英文|LJ Speech|大约 24 小时|
2024-12-16
AI复刻怎么做
AI 复刻,以吴恩达开源的 AI 翻译项目 Coze 为例,主要步骤如下: 1. 初步的翻译大模型节点:选择一个大模型对源语言文本进行初始翻译,如选择 MiniMax 大模型,提示词可参考吴恩达教授的相关内容。 2. 选择器节点:判断用户填写的要求中是否有特殊的语言翻译特色或口音。 3. 反思优化的大模型节点:配置反思优化的提示词,告诉模型如何思考和优化翻译结果。提示词的设计至关重要,可参考项目给出的示例提示词,也可根据自身经验和需求改进。 4. 结合反思优化建议再翻译的大模型节点:结合反思优化的建议和初始翻译结果再次进行翻译,以获得更好的翻译结果。 此外,该项目还具有以下特点: 1. 反思优化:通过对自身的反思和优化来提升翻译质量。 2. 使用工具:借助外部工具和资源。 3. 计划:预先制定好 Agent 的实现计划。 4. 多 Agent 合作:通过多个 Agent 之间的合作实现目标。 同时,项目还引入了一些创新点,如分块处理(将长文本拆分成若干小块分别进行翻译和优化,提高处理效率和局部优化效果)和语言习惯指定。 首先,在 Coze 上新建一个工作流,逐步导入核心流程。工作流分为若干节点,每个节点完成特定任务,组合形成完整翻译流程。运行测试时可看到每个节点的执行过程和结果。开始节点需选择翻译的源语言和目标语言,还可设置其他参数,如翻译的语言特色等,建议根据实际情况调整。
2024-09-23
如果让 ai 复刻《千里江山图》的局部细节,该如何写提示词
要让AI复刻《千里江山图》的局部细节,需要提供清晰、具体的指令,以确保AI能够理解并执行任务。以下是一些可能的提示词和步骤: 1. 明确任务:首先,明确告诉AI你想要复刻的是《千里江山图》的哪个部分,例如:“请复刻《千里江山图》中的山水细节。” 2. 详细描述:提供该局部细节的具体描述,包括颜色、纹理、风格等特征,例如:“重点复刻山峦的层次、水波的流动感以及树木的形态。” 3. 风格指定:如果需要保持原作的风格,可以指定:“请保持宋代山水画的细腻笔触和深远意境。” 4. 技术要求:如果需要特定的技术或效果,例如:“使用高精度的图像处理技术,确保细节的清晰度和真实感。” 5. 尺寸和比例:指定复刻作品的尺寸和比例,例如:“复刻尺寸为原图的一半,保持原有比例。” 6. 材料和工具:如果AI复刻作品需要使用特定的材料或工具,可以指定:“使用数字绘图板和高级绘画软件。” 7. 质量标准:设定作品的质量标准,例如:“确保复刻作品的色彩和细节与原画高度一致。” 8. 反馈和修正:如果AI可以进行交互,可以要求:“在复刻过程中,根据我的反馈进行必要的修正。” 9. 版权和法律:提醒AI注意版权和法律问题,例如:“在复刻过程中,请确保遵守相关的版权法规。” 10. 最终目标:明确复刻作品的最终目标,例如:“复刻的目的是为了艺术教育和展览,需要具有高度的艺术价值。” 结合以上提示,一个完整的提示词示例可能是: “请复刻《千里江山图》中山水细节部分,重点体现山峦层次、水波流动和树木形态,保持宋代山水画的细腻笔触和深远意境。使用高精度图像处理技术,确保细节清晰度和真实感。复刻尺寸为原图的一半,保持原有比例。使用数字绘图板和高级绘画软件,确保色彩和细节与原画高度一致。在复刻过程中,根据我的反馈进行修正,并确保遵守版权法规。复刻作品用于艺术教育和展览,需要具有高度的艺术价值。” 请注意,AI的复刻能力取决于其训练数据和算法的复杂性,可能无法完全达到人类艺术家的水平。
2024-06-04
推荐用于声音复刻的AI工具
可使用这个 AI 工具进行声音复刻。它是一个带 Web 界面简单易用的声音克隆工具。可使用任何人类音色,将一段文字合成为使用该音色说话的声音,或者将一个声音使用该音色转换为另一个声音。
2024-05-01
用户声音分析
以下是关于用户声音分析的相关内容: 人工智能音频初创公司: :通过更强的听觉感知创造卓越的人类体验。 :先进的声音识别解决方案,能够分类如尖叫、枪声、咳嗽和哭泣等声音。 :下一代声音 AI 平台,能够像人类一样理解任何声音。 :语音控制的家庭自动化系统。 :世界上首个智能家居听觉系统。 :可用于从音频源中提取隐藏数据的 AI 模型。 :无需键盘、按钮或触摸屏,无缝融合物理世界和数据世界。 :为手机、VR/AR 头戴设备、智能手表、扬声器和笔记本电脑提供上下文感知。 :智能音频穿戴设备。 :我们将声音转化为信息。 :使用先进的深度学习技术进行声音事件检测和上下文识别,为世界上的每一个声音赋予意义。 分析报告范例: GPT + SBERT 做用研统计:无法做 SBERT 统计频次。 邬嘉文:AI 做用户研究|Claude 3 Opus 可以直接输出用户研究报告:无法做 SBERT 统计频次。报告中提到了眼镜佩戴的相关问题,如长时间佩戴的不适(鼻垫、耳杆问题)、大小和重量问题、对特定用户群体的不适(视力、眼间距问题)、音频体验的限制等。
2024-12-19
推荐一个大模型,可以实现特定人的声音,朗读文字
以下为您推荐可以实现特定人声音朗读文字的大模型及相关工具: 大模型方面:包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 语音合成(TTS)工具: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits 系列可以自己训练出想要的人声。 sovitssvc:https://github.com/svcdevelopteam/sovitssvc,专注到唱歌上面,前段时间很火的 AI 孙燕姿。 Eleven Labs:https://elevenlabs.io/ ,ElevenLabs Prime Voice AI 是一款功能强大且多功能的 AI 语音软件,使创作者和出版商能够生成逼真、高品质的音频。人工智能模型能够高保真地呈现人类语调和语调变化,并能够根据上下文调整表达方式。 Speechify:https://speechify.com/ ,Speechify 是一款人工智能驱动的文本转语音工具,使用户能够将文本转换为音频文件。它可作为 Chrome 扩展、Mac 应用程序、iOS 和 Android 应用程序使用,可用于收听网页、文档、PDF 和有声读物。 Azure AI Speech Studio:https://speech.microsoft.com/portal ,Microsoft Azure Speech Studio 是一套服务,它赋予应用程序能力,让它们能够“听懂、理解并与客户进行对话”。该服务提供了支持 100 多种语言和方言的语音转文本和文本转语音功能。此外,它还提供了自定义的语音模型,这些模型能够适应特定领域的术语、背景噪声以及不同的口音。 Voicemaker:https://voicemaker.in/ ,AI 工具可将文本转换为各种区域语言的语音,并允许您创建自定义语音模型。Voicemaker 易于使用,非常适合为视频制作画外音或帮助视障人士。 此外,上述算法开源的代码有很多,例如: ASR 语音识别: openai 的 whisper:https://github.com/openai/whisper wenet:https://github.com/wenete2e/wenet speech_recognition:https://github.com/Uberi/speech_recognition 除了算法,人物建模模型可以通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型)实现,这样就完成了一个最简单的数字人。但这种简单的构建方式还存在很多问题,例如如何生成指定人物的声音,TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作,数字人如何使用知识库,做出某个领域的专业性回答等。
2024-12-18
声音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用方法: 特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且更自然。 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 使用: 先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits 克隆声音,做出文案的音频。 注册 colab,按照步骤注册即可:https://colab.research.google.com/scrollTo=Wf5KrEb6vrkR&uniqifier=2 。新建笔记本,运行脚本启动 GPTSo VITS,整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段运行。运行过程包括克隆项目代码库、进入项目目录、安装 Python 依赖包、安装系统依赖、下载 NLTK 资源、启动 Web UI。运行成功后会出现 public URL。 训练音频准备与上传。 相关资源: GitHub:https://github.com/RVCBoss/GPTSoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/ 基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 产品:https://synclabs.so/
2024-12-13
如何克隆自己的声音
要克隆自己的声音,以下是一些常见的方法和相关信息: 使用 GPTSoVITS: 前置数据获取处理:选择音频,开启切割;有噪音时进行降噪处理,降噪处理完成后开启离线 ASR。 GPTSowitsTTS:训练集格式化,包括一键三连和耐心等待;进行微调训练,开启 SoVITS 训练和 GPT 训练;进行推理,开始推理、刷新模型、选择微调后的模型。 成功标志:出现新的 URL 说明自己的声音微调完毕。 微软发布的 Personal Voice: 只需提供 1 分钟的语音样本,几秒钟内即可克隆该样本语音。 生成的 AI 语音支持中文、西班牙语、德语等多达 100 种不同语言的语音输出。 使用设备端机器学习技术,确保用户信息私密安全,与 LiveSpeech 无缝集成。 微软在生成的 AI 语音中增加了水印安全和认证措施,一种特殊的水印被添加到生成的语音中,以便用户和客户识别。 该功能将在西欧、美国东部和东南亚地区率先上线,并于 12 月 1 日上线公共预览版。 相关资源: GPTSoVITS 的 GitHub: 视频教程: 希望以上内容对您有所帮助。
2024-12-10
克隆自己的声音
以下是关于克隆自己声音的相关信息: GPTSoVITS: 这是一个声音克隆和文本到语音转换的开源 Python RAG 框架。 只需 1 分钟语音即可训练一个自己的 TTS 模型。 5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音。 主要特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感。 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 预训练模型:项目提供了一些已经训练好的模型,您可以直接下载使用。 GitHub: 视频教程: 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR。 GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待即可。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo。 成功:出现新的 URL,说明您自己的声音微调完毕,然后可以进行使用。 声音复刻: 可以实现跨多语种语言的声音。 微软发布 Personal Voice: 您只需要提供 1 分钟的语音样本,它就可以在几秒钟内克隆该样本语音,复制出一模一样的 AI 语音。 生成的 AI 语音支持中文、西班牙语、德语等多达 100 种不同语言的语音输出。 Personal Voice 使用设备端机器学习技术,确保用户信息私密安全,同时与 LiveSpeech 无缝集成,让用户可以在与其他人交流时使用 Personal Voice AI 语音说话。 微软在生成的 AI 语音中增加了水印安全和认证措施。 一种特殊的水印被添加到生成的语音中,以便用户和客户可以识别出语音是使用 Azure AI Speech 合成的,以及具体使用了哪种语音。 该功能将在西欧、美国东部和东南亚地区率先上线,并于 12 月 1 日上线公共预览版。 官方网站:
2024-12-10