Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

推荐免费的tts公有模型站点,需要支持中文,克隆自己的声音

Answer

以下为您推荐支持中文且能克隆自己声音的免费 TTS 公有模型站点:

  • GPT-SoVITS:
    • 只需 1 分钟语音即可训练一个自己的 TTS 模型。
    • 5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音,且适配中文,界面易用。
    • 主要特点:
      • 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。
      • 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。
      • 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。
      • 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。
      • 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。
      • 预训练模型:项目提供了一些已经训练好的模型,您可以直接下载使用。
    • GitHub:https://github.com/RVC-Boss/GPT-SoVITS
    • 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/

需要注意的是,Stuart 模型存在一些问题:

  • 语音生成基本功能方面:
    • 支持的语音时长不超过 30 秒,超过 30 秒的需要特别修复。
    • 某些 audio seed 在念某些语句时会丢失一些语句。
    • Refine 过程中有些字会被丢失,比如“儿童节”在大概率会被 refine 成“童节”,丢失一个“儿”字。解决方法是跳过自动 refine,以手动修改文本的方式来控制停顿。
    • 即使同一个 audio seed,如果使用不同的语句分段方式,或者不同的 text seed,生成的音色也不是很稳定,会给人感觉不是同一个人的声音。
  • 代码 Bug:
    • uv_break 等提示词可能会在 refine 之后缺少[],甚至有时候在有中括号的情况下也会被念出来。
  • 没提供微调 SFT 的接口。
  • 本模型特别申明:不支持商用,仅用于学术研究。在生成的语音内,作者加了听不见的噪音水印,可以很容易的被检测出来是他的模型生成的语音。ChatTTS 还没放出训练代码无法自己克隆声音,作者还只放出了 4w 小时训练的版本,确保这个模型的声音能被 AI 检测出来。作者还留着一个 10w 小时训练数据的版本。
Content generated by AI large model, please carefully verify (powered by aily)

References

GPT-SoVITS实现声音克隆

GPT-SoVITS:只需1分钟语音即可训练一个自己的TTS模型。GPT-SoVITS是一个声音克隆和文本到语音转换的开源Python RAG框架。5秒数据就能模仿你,1分钟的声音数据就能训练出一个高质量的TTS模型,完美克隆你的声音!根据演示来看完美适配中文,应该是目前中文支持比较好的模型。界面也易用。主要特点:1、零样本TTS:输入5秒的声音样本即可体验即时的文本到语音转换。2、少量样本训练:只需1分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。3、易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和GPT/SoVITS模型。4、适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括Windows。5、预训练模型:项目提供了一些已经训练好的模型,你可以直接下载使用。GitHub:[https://github.com/RVC-Boss/GPT-SoVITS](https://t.co/BpHX4SlsO3)[…](https://t.co/BpHX4SlsO3)视频教程:[https://bilibili.com/video/BV12g4y1m7Uw/](https://t.co/Uo7WtSSUGO)[…](https://t.co/Uo7WtSSUGO)[[twi]@小互(@_twi(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/RymsbKdweody4Cxwtsqc7Yuenxd?allow_redirect=1)使用:

Stuart:一夜爆火的 ChatTTS 实测

1.语音生成基本功能1.1.支持的语音时长不超过30s,超过30秒的需要特别修复。1.2.某些audio seed在念某些语句时会丢失一些语句。1.3.Refine过程中有些字会被丢失,比如“儿童节”在大概率会被refine成“童节”,丢失一个“儿”字。1.3.1.解决方法:跳过自动refine,以手动修改文本的方式来控制停顿。1.4.即使同一个audio seed,如果使用不同的语句分段方式,或者不同的text seed,生成的音色也不是很稳定,会给人感觉不是同一个人的声音。2.代码Bug:2.1.uv_break等提示词可能会在refine之后缺少[],甚至有时候在有中括号的情况下也会被念出来,听多了,容易被洗脑,不自觉的自己说话也念出uv break作为口头禅。(多听几遍,很有那种m3?的洗脑上头效果😂)[audio(10).wav](https://bytedance.feishu.cn/space/api/box/stream/download/all/UMT2bgjvjo1RIHxVg9PcODCnnGe?allow_redirect=1)3.没提供微调SFT的接口3.1.当然在底模已经提供的情况下,我们自己调用模型来做微调是可以的,但是项目本身没有提供相关的代码,对于大多数人来说,微调,或者说声音克隆就成了一个门槛。4.本模型特别申明:不支持商用,仅用于学术研究。4.1.⚠️在生成的语音内,作者加了听不见的噪音水印,可以很容易的被检测出来是他的模型生成的语音。ChatTTS还没放出训练代码无法自己克隆声音作者还只放出了4w小时训练的版本,确保这个模型的声音能被ai检测出来。作者还留着一个10w小时训练数据的版本

XiaoHu.AI日报

https://x.com/xiaohuggg/status/1747838869951910225?s=20 6⃣️🤖微软AutoGen Studio发布:-无代码平台,构建多功能AI代理。-提供编写代码、规划旅行、绘制股票图表等功能。🔗https://x.com/xiaohuggg/status/1747821655182000569?s=20 7⃣️🗣️GPT-SoVITS实现声音克隆:-1分钟语音训练个性化TTS模型。-支持中文,界面易用。🔗https://x.com/xiaohuggg/status/1747811318672007342?s=20 8⃣️🎥Motion新功能Video-to-Motion:-通过视频捕捉运动动作。-创建基于动作捕捉的角色视频。-提供FBX文件导出功能。[https://discord.gg/AapmuVJqxx](https://t.co/JjkC8N3rDE)🔗https://x.com/xiaohuggg/status/1747805383421472833?s=20

Others are asking
tts
语音合成(Text to Speech,TTS)是指将文本通过一系列的信号处理转换成“人造”语音。 技术原理: 1. 文本与韵律分析:先将文本分词,标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。 2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。 3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后依次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。 参考资料: 出门问问的语音合成(TTS)API: 接口请求域名:https://open.mobvoi.com/api/tts/v1 接口请求频率限制:5 次/秒 应用场景:在视频 APP 中作为配音解说;小说 App 完成有声阅读,移动 App 语音播报新闻;智能设备语音提醒;车载导航语音合成的个性化语音播报等。 提供多种方言和风格:包括普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格,满足客户在不同场景的选择需求。实时合成支持 SSML,语法详见 SSML 标记语言。 请求参数: HTTP Method:支持 POST 请求 调用参数及说明: 字段名:text,必填,类型为 String,要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。 字段名:appkey,必填,类型为 String,开发者在 AI 开放平台上申请的 appkey。 字段名:signature,必填,类型为 String,签名,通过“appkey+secret+timestamp”进行 md5 加密,得到的 32 位 MD5 值。其中加号也参与 MD5 的计算。每次请求实时计算签名,签名有效期为 10 分钟。 字段名:timestamp,必填,类型为 Long,当前时间戳,单位为秒。 字段名:speaker,否,类型为 String,合成音频指定发音人,默认值:cissy_meet,其他发音人传值及计费价格请参考声音商店。 字段名:audio_type,否,类型为 String,合成音频的格式,默认值:mp3,可选值:pcm/mp3/speexwb10/wav,只支持这四种格式中的一种。 字段名:speed,否,类型为 Float,发音人合成的语速,支持小数点后两位,默认值:1.0,可选值:0.5 2.0。 Request Header 设置
2025-02-28
TTS
语音合成(Text to Speech,TTS)是指将文本通过一系列的信号处理转换成“人造”语音。 技术原理: 1. 文本与韵律分析:先将文本分词,标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。 2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。 3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后依次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。 参考资料: 出门问问的语音合成(TTS)API: 接口描述: 接口请求域名:https://open.mobvoi.com/api/tts/v1 接口请求频率限制:5 次/秒 可以将任意文本转化为语音,应用场景包括视频 APP 配音解说、小说 App 有声阅读、移动 App 语音播报新闻、智能设备语音提醒、车载导航语音合成的个性化语音播报等。提供了普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格。 请求参数: HTTP Method:支持 POST 请求 调用参数及说明: 字段名:text,必填,类型为 String,要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。 字段名:appkey,必填,类型为 String,开发者在 AI 开放平台上申请的 appkey。 字段名:signature,必填,类型为 String,签名,通过“appkey+secret+timestamp”进行 md5 加密,得到的 32 位 MD5 值。每次请求实时计算签名,签名有效期为 10 分钟。 字段名:timestamp,必填,类型为 Long,当前时间戳,单位为秒。 字段名:speaker,否,类型为 String,合成音频指定发音人,默认值:cissy_meet,其他发音人传值及计费价格请参考声音商店。 字段名:audio_type,否,类型为 String,合成音频的格式,默认值:mp3,可选值:pcm/mp3/speexwb10/wav,只支持这四种格式中的一种。 字段名:speed,否,类型为 Float,发音人合成的语速,支持小数点后两位,默认值:1.0,可选值:0.5 2.0。 Request Header 设置
2025-02-14
推荐免费的tts模型站点,需要支持中文
以下为您推荐两个免费的支持中文的 TTS 模型站点: 1. Fish Speech:语音处理接近人类水平,约十五万小时三语数据,对中文支持完美。开发者为 fishaudio,具有亿级参数,高效轻量,可在个人设备上运行和微调,适合作为私人语音助手。详细介绍及更多演示:https://xiaohu.ai/p/10779 ,GitHub:https://github.com/fishaudio/fishspeech 。 2. GPTSoVITS:只需 1 分钟语音即可训练一个自己的 TTS 模型,是一个声音克隆和文本到语音转换的开源 Python RAG 框架。5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音,完美适配中文。GitHub: 。
2025-02-07
TTS的最佳解决方案
以下是关于 TTS 的一些最佳解决方案: 在线 TTS 工具推荐: Eleven Labs:https://elevenlabs.io/ ,是一款功能强大且多功能的 AI 语音软件,能高保真地呈现人类语调和语调变化,并能根据上下文调整表达方式。 Speechify:https://speechify.com/ ,是一款人工智能驱动的文本转语音工具,可作为多种平台的应用使用,用于收听网页、文档、PDF 和有声读物。 Azure AI Speech Studio:https://speech.microsoft.com/portal ,提供了支持 100 多种语言和方言的语音转文本和文本转语音功能,还提供了自定义的语音模型。 Voicemaker:https://voicemaker.in/ ,可将文本转换为各种区域语言的语音,并允许创建自定义语音模型。 TTS 音库制作和文本前端: 录音文本收集:在一个语种的语音合成建设之初,可同步收集该语种对应的大文本。录音文本的选择一般遵循以下原则: 音素覆盖:构建基础的文本前端,确保录音文本的音素或音素组合尽可能覆盖全。 场景定制:根据通用或特定场景需求,确保相关内容有所覆盖,并与需求方紧密沟通。 文本正确性:确保录音文本拼写无误,内容正确。 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 接口请求域名:https://open.mobvoi.com/api/tts/v1 。 接口请求频率限制:5 次/秒。 可以将任意文本转化为语音,应用场景广泛,提供多种方言、发音人和风格,实时合成支持 SSML。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-07
chatTTS
ChatTTS 是一个用于对话的生成式语音合成模型,具有以下特点: 优势: 真实度和自然度惊艳。 有更好的韵律,能生成接近真人音色的语气语调。 对中文支持良好,中英混合也没问题。 可进行细粒度控制,能预测和控制如笑声、停顿和插话等韵律特征。 能自然流畅地语音合成,支持多说话人,同时提供预训练模型。 劣势: 推理速度慢,无法应用在实时语音场景,离线场景需大量后期修正工作。 对于阿拉伯数字、标点符号,refine 后效果不佳。 有时会出现不稳定情况,自动删除或增加一些内容,读绕口令时有卡顿。 在参数设置方面,常调整的参数主要是 Seed(种子数),不同的 Seed 对应不同的声音,目前较火的 Seed 为 2222。此外,输入文本时,除文字本身和控制符号外,还可控制笑声、停顿等副语言现象。 在使用时,对于 30 秒的音频,需要 4G 的显存。整合包增加了音质增强、批量处理、长文本切分等功能,Mac 版本默认绑定 8080 窗口,推出应用后需执行“lsof i:8080”得到程序的 PID 后 kill 程序,不然下一次启动会提示端口被占用。在输入文本准备生成时,可勾选音频增强和降噪进行进一步处理,增强后的音频会更清晰但处理时长会增加。生成的语音已达到“以假乱真”的程度,但为防止模型被用于诈骗等违法行为,作者在训练过程中添加了少量高频噪音,并压缩了音质。
2025-01-24
怎么做tts模型训练
以下是关于 TTS 模型训练的相关内容: 使用 GPTSoVITS 进行 TTS 模型训练: GPTSoVITS 是一个声音克隆和文本到语音转换的开源 Python RAG 框架。 只需 1 分钟语音即可训练一个自己的 TTS 模型。5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音。 主要特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 预训练模型:项目提供了一些已经训练好的模型,您可以直接下载使用。 GitHub: 视频教程: TTS 模型训练的音库制作和文本前端: 音频录制: 音频的录制对合成语音的表现较为重要,较差的语音甚至会导致端到端声学模型无法正常收敛。 用于训练的录音至少要保证录音环境和设备始终保持一致,无混响、背景噪音;原始录音不可截幅。 如果希望合成出来的语音干净,则要删除含口水音、呼吸音、杂音、模糊等,但对于目前的端到端合成模型,有时会学习到在合适的位置合成呼吸音、口水音,反而会增加语音自然度。 录音尽可能不要事先处理,语速的调节尚可,但调节音效等有时会造成奇怪的问题,甚至导致声学模型无法收敛。 音频的录制可以参考录音公司的标准,购买专业麦克风,并保持录音环境安静即可。 在音库录制过程中,可尽早提前尝试声学模型,比如音库录制 2 个小时语音后,就可尝试训练基线语音合成系统,以防止录音不符合最终的需求。 语料整理: 检查文本和录制的语音是否一一对应,录制的音频本身一句话是否能量渐弱,参与训练的语音前后静音段要保持一致,能量要进行规范化。 可使用预训练的语音活动检测(Voice Activity Detection,VAD)工具,或者直接根据语音起止的电平值确定前后静音段。 可以使用一些开源的工具,比如统一所有语音的整体能量,这将有助于声学模型的收敛。当然,在声学模型模型训练时,首先就要对所有语料计算均值方差,进行统一的规范化,但是这里最好实现统一能量水平,防止一句话前后能量不一致。 GPTSoVITS 实现 AIyoyo 声音克隆的步骤: 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR。 GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待即可。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo。 成功:出现新的 URL,说明您自己的声音微调完毕,然后可以进行使用。 声音复刻:开启声音复刻之旅,实现跨多语种语言的声音。 希望以上内容对您有所帮助。
2025-01-24
语音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用方法: 特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 使用方法: 前置数据获取处理:选择音频,开启切割;有噪音时,进行降噪处理;降噪处理完成,开启离线 ASR。 GPTSowitsTTS:训练集格式化,开启一键三连,耐心等待;微调训练,开启 SoVITS 训练和 GPT 训练;推理时,开始推理、刷新模型、选择微调后的模型。 声音复刻:实现跨多语种语言的声音。 注册 colab,启动准备:点击进入按照步骤注册,新建笔记本,运行脚本启动 GPTSo VITS,整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段运行。运行成功后会出现 public URL,还需准备训练音频并上传。 相关资源: GitHub:https://github.com/RVCBoss/GPTSoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/ 开源项目:https://github.com/RVCBoss/GPTSoVITS colab 注册及启动:https://colab.research.google.com/scrollTo=Wf5KrEb6vrkR&uniqifier=2 实践的样本: AIyoyo 普通话 满江红: AIyoyo 粤语版 满江红:
2025-03-09
克隆声音
以下是关于克隆声音的相关内容: 开源的数字人组合方案中,克隆声音的步骤如下: 1. 先剪出音频,可使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits(https://waytoagi.feishu.cn/wiki/SVyUwotn7itV1wkawZCc7FEEnGg )克隆声音,做出文案的音频。 2. 使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址为 https://github.com/Rudrabha/Wav2Lip 。产品可参考 https://synclabs.so/ 。 在剪映中克隆声音的步骤: 1. 打开剪映,点击左上角菜单——文本,从默认文本开始,在右边文本框输入文字。 2. 输入文字后,点击上面的菜单栏——朗读,会出现克隆音色和文本朗读两个按钮。 3. 克隆音色步骤:点击克隆音色——点击克隆。如果使用电脑版演示,可能会提示未检测到麦克风,手机版则可直接点击下面的按钮开始录制。 4. 文本朗读:直接把输入的文本转换成剪映系统自带的各种成品音色,选择合适的音色,点击开始朗读即可生成。最后别忘了删除输入的文本。 另外还有配音工具 DubbingX 。
2025-03-04
声音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用方法: 特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出的声音更接近原声且自然。 跨语言支持:支持英语、日语和中文等不同语言的推理。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,方便初学者创建训练数据集和模型。 适用于不同操作系统:可在包括 Windows 在内的多种操作系统上安装和运行。 提供预训练模型:可直接下载使用。 使用: 开源数字人组合方案中,第一步先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或 GPTSoVITS 克隆声音,做出文案的音频。 前置数据获取处理时,选择音频并切割,有噪音时进行降噪处理,完成降噪后开启离线 ASR。 在 GPTSowitsTTS 中,进行训练集格式化,包括微调训练(开启 SoVITS 训练和 GPT 训练)和推理(开始推理、刷新模型、选择微调后的模型),成功后会出现新的 URL,表示声音微调完毕。 可以实现跨多语种语言的声音复刻,例如 AIyoyo 普通话和粤语版的《满江红》。 GitHub 地址: 视频教程: 基础 wav2lip+高清修复整合包下载地址: 相关产品:
2025-02-25
声音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用方法: 特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 使用: 开源数字人组合方案中,第一步先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits 克隆声音,做出文案的音频。第二步使用 wav2lip 整合包,导入视频和音频,对口型得到视频。 GPTSoVITS 实现声音克隆的具体步骤: 前置数据获取处理:选择音频,开启切割;有噪音时,进行降噪处理;降噪处理完成,开启离线 ASR。 GPTSowitsTTS:训练集格式化,开启一键三连并耐心等待;微调训练,开启 SoVITS 训练和 GPT 训练;推理,开始推理 刷新模型 选择微调后的模型 yoyo。成功后会出现新的 URL,说明自己的声音微调完毕。 声音复刻:开启声音复刻之旅,可实现跨多语种语言的声音,如 AIyoyo 普通话 满江红、AIyoyo 粤语版 满江红。 相关资源: GitHub:https://github.com/RVCBoss/GPTSoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/ 基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 产品:https://synclabs.so/
2025-02-25
语音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用步骤: 特点: 1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且更自然。 3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 6. 提供预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 使用步骤: 1. 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR。 2. GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo。 3. 声音复刻:开启声音复刻之旅,可实现跨多语种语言的声音。 相关资源: GitHub:https://github.com/RVCBoss/GPTSoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/ 注册 colab 并启动准备:点击进入按照步骤注册即可 https://colab.research.google.com/scrollTo=Wf5KrEb6vrkR&uniqifier=2 ,新建笔记本,运行脚本启动 GPTSo VITS,整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段运行; https://colab.research.google.com/drive/1Z4p4NTR7GYlQTn_MdMen9XgulV0CHza?usp=sharing 。 实践的样本: AIyoyo 普通话 满江红 AIyoyo 粤语版 满江红
2025-02-25
声音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和优势: 1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。 3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 6. 预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 使用方法: 1. 开源的数字人组合方案中,第一步先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits 克隆声音,做出文案的音频。 2. 第二步使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址为 https://github.com/Rudrabha/Wav2Lip 。 在进行 GPTSoVITS 声音克隆时: 1. 前置数据获取处理:选择音频,开启切割。有噪音时,进行降噪处理。降噪处理完成,开启离线 ASR。 2. GPTSowitsTTS:训练集格式化时开启一键三连,耐心等待。微调训练时开启 SoVITS 训练和 GPT 训练。推理时开始推理,刷新模型,选择微调后的模型。成功时会出现新的 URL,说明声音微调完毕。 3. 声音复刻:可以实现跨多语种语言的声音,例如 AIyoyo 普通话满江红(https://drive.weixin.qq.com/s?k=AJMA1Qc4AAwsRaRfHrAQ8AbQYrAGo)。 GitHub 地址: 视频教程:
2025-02-23
当我想要解决一个问题,面对如此多的AI站点和AI智能体,我该如何选择?
在面对众多的 AI 站点和 AI 智能体时,您可以从以下几个方面进行选择: 1. 明确自身需求:确定您希望解决的具体问题和期望达到的目标,以便找到与之匹配的 AI 工具。 2. 了解功能特点:不同的 AI 智能体具有不同的功能和优势。例如,有些擅长自然语言处理和回答各种问题,有些则在特定领域如编程、设计等有出色表现。 3. 考虑技术能力:包括模型的性能、上下文窗口长度、响应速度和并发支持等。响应速度快、并发支持高的工具能在多人使用时保持良好性能。 4. 成本因素:关注免费或低价的选项,以降低使用成本。 5. 个性化需求满足:选择能够根据您的业务场景和个性化需求进行定制的 AI 智能体。 例如,字节的扣子(Coze)是新一代一站式 AI Bot 开发平台,无论有无编程基础都能构建各类问答 Bot,并可发布到多种社交平台和通讯软件上。而在开发 AI 插件时,像 AI Share Card 插件会根据需求选择合适的模型,如选用了具有较长上下文窗口、免费且并发支持高的 GLM4flash 模型。 总之,要综合考虑自身需求、功能特点、技术能力、成本和个性化等因素,选择最适合您的 AI 站点和智能体。
2025-02-04
免费生成AIPPT的站点有哪些
以下是一些免费生成 AIPPT 的站点: 1. AiPPT.cn: 技术优势:基于自然语言处理技术的语义分析,可帮助用户快速生成演示文稿。具有基于图像识别技术的 AI 插件,能实现智能化的 PPT 模板生成、字体自动化排版等功能。基于数据分析技术的个性化推荐,能根据用户需求和偏好提供量身定制的演示文稿模板和素材。通过了国家网信办 PPT 生成算法备案,同时获得 A 股上市公司视觉中国战略投资,拥有 5 亿+版权素材库和 10 万+PPT 模板,为用户提供版权无忧、图文并茂的内容创作体验。 商业模式:靠订阅工具业务赚钱,为全岗位职场人提供 10 余款 AIGC 工具,围绕企业内容工作流,满足工作中的 PPT、文案、H5、平面/视频制作、新媒体排版等高质量内容创作需求。 2. AutoAgents.ai:未来式智能是一家由创新工场投资,国内首批大语言模型技术落地和应用场景探索的公司。以自研 MultiAgent 架构为基础构建企业级 Agent“灵搭”平台,为企业提供 AI Copilot、Autopilot、Autonomous Agent 等智能体产品与服务。基于自主研发的企业级 Agent 应用构建平台,致力于解决大语言模型到场景化落地应用“最后一公里”问题。通过打破传统固化业务流,帮助企业构建高度智能化的底层通用业务流,打造人机共创的工作新范式,引领企业业务流程智能化升级,让全球 10 亿知识工作者 10 倍效工作。
2025-01-01
文生图站点推荐
以下是为您推荐的一些文生图站点和工具: 1. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,可生成高质量图片,支持多种模型和算法。 3. MidJourney:因高质量的图像生成效果和友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您还可以在 WaytoAGI 网站(https://www.waytoagi.com/category/104)查看更多文生图工具。 关于文生图写提示词,通常的描述逻辑包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)等。对于新手,有以下功能型辅助网站帮助书写提示词: 1. http://www.atoolbox.net/ :通过选项卡方式快速填写关键词信息。 2. https://ai.dawnmark.cn/ :每种参数都有缩略图参考,方便直观选择提示词。 3. 还可以去 C 站(https://civitai.com/)抄作业,每一张图都有详细参数,可点击复制数据按钮,粘贴到正向提示词栏,然后点击生成按钮下的第一个按键,不过要注意图像作者使用的大模型和 LORA。 以下是一些用户在工作中使用文生图的情况: |姓名|联系方式|用途| |||| |薄荷|电商应用出图,辅助创意落地| |龙飞|用于海报生成| |wangzhao111|15571666325|不知道| |Crossing|AI 摄影、图生视频等| |朔|13670516075|大图像以及视频工作流| |Roger|18658866328|工作| |秦梧御|15966569697|视频| |dwing3|13702513842|出图| |May|18018539454|应用| |王西西|18820134184|还不清楚| |丘嘉杰|13413477173|文生图,图生图,图生视频| |吴林林|13968945722|自用,给朋友做写真| |刘燕兰|13066870649|电商应用| |朱鹏|18781609127|广告出图| |水水|视频制作| |韩影|17801234978|作图,做视频| |斌哥|18250885849|自媒体| |德方|18600081286|设计、建模、绘图、效果图、视频| |树一|15659268616|自媒体| |任振亮|13513700768|自媒体| |陈锦燊|16698528851|视觉设计、快速出图| |李恒安|18366606265|动漫| |谌峰|13925911177|视频,人物,室内设计|
2024-10-14
comfyui的workflow站点推荐
ComfyUI 工作流网站推荐: ComfyWorkflows 网站:https\://comfyworkflows.com/cloud,支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Openart.ai:https\://openart.ai/workflows/,“老牌”workflow 网站,流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 什么是 ComfyUI 的 Workflow?Workflow 是 ComfyUI 的精髓。所谓 Workflow 工作流,在 ComfyUI 这里就是它的节点结构及数据流运转过程。
2024-05-26
针对想了解目前AI发展情况或AI对办公有什么提高效率的人群设计一份15道选择题的问卷
以下是一份关于 AI 发展情况及对办公效率提升的 15 道选择题问卷: 1. 您是否了解当前 AI 的发展状况? A. 非常了解 B. 了解一些 C. 不太了解 D. 完全不了解 2. 您认为 AI 对办公效率的提升作用主要体现在哪些方面?(可多选) A. 数据处理 B. 文档撰写 C. 会议安排 D. 任务分配 E. 其他 3. 在您的工作中,是否已经开始使用 AI 工具? A. 是 B. 否 4. 如果您使用了 AI 工具,您觉得它对您工作的帮助程度如何? A. 非常大 B. 较大 C. 一般 D. 较小 E. 几乎没有 5. 您认为 AI 工具在以下哪些方面能够提高办公效率?(可多选) A. 节省时间 B. 提高准确性 C. 创新思维 D. 优化流程 E. 其他 6. 您觉得 AI 工具在办公中的应用是否存在风险? A. 是 B. 否 7. 如果存在风险,您认为主要是哪些方面?(可多选) A. 数据安全 B. 隐私泄露 C. 错误决策 D. 其他 8. 您认为 AI 工具在未来几年内对办公方式的改变程度会如何? A. 巨大 B. 较大 C. 一般 D. 较小 E. 几乎不变 9. 您所在的团队是否已经开始使用 AI 工具? A. 是 B. 否 10. 如果团队使用了 AI 工具,您认为它对团队工作方式的影响程度如何? A. 非常大 B. 较大 C. 一般 D. 较小 E. 几乎没有 11. 您认为 AI 工具在哪些工作环节上能够发挥最大的作用?(可多选) A. 策划 B. 执行 C. 监督 D. 评估 E. 其他 12. 您是否愿意在未来更多地使用 AI 工具来提高工作效率? A. 非常愿意 B. 愿意 C. 不确定 D. 不愿意 E. 非常不愿意 13. 您认为目前阻碍 AI 工具在办公中广泛应用的主要因素是什么?(可多选) A. 技术不成熟 B. 成本过高 C. 员工培训不足 D. 其他 14. 您认为 AI 工具在未来会取代人类的工作吗? A. 会 B. 不会 C. 部分取代 D. 不确定 15. 对于 AI 在办公领域的发展,您的态度是? A. 积极支持 B. 谨慎对待 C. 无所谓 D. 反对
2024-08-21
agent一般是私有化部署,还是公有化部署
AI助手或智能代理(Agent)的部署可以是私有化部署,也可以是公有化部署,具体取决于应用场景、需求、安全考虑以及成本效益等因素。 1. 私有化部署: 在企业或组织的内部网络中部署,通常用于处理敏感数据或需要高度定制化的服务。 提供更高的安全性和隐私保护,因为系统不公开于互联网。 允许更精细的控制和管理,适合有特定业务流程和需求的企业。 2. 公有化部署: 在云服务提供商的基础设施上部署,通过互联网提供服务。 易于扩展,维护成本较低,因为云服务商负责大部分的维护工作。 适用于面向公众的服务,如在线客服机器人、开放平台的API服务等。 选择哪种部署方式取决于以下因素: 数据敏感性:如果处理的数据非常敏感,私有化部署更有利于保护数据安全。 成本:私有化部署可能需要更多的初始投资,而公有化部署可能带来更高的灵活性和可扩展性。 维护能力:如果企业有足够的技术力量来维护私有化部署的系统,这可能是一个更好的选择。 定制化需求:私有化部署更容易根据企业的特定需求进行定制。 法规遵从性:某些行业或地区的法律法规可能要求企业必须进行私有化部署。 在实际应用中,一些企业可能会选择混合部署模式,即在私有云中部署核心的、敏感的业务组件,同时将一些非核心或较不敏感的组件部署在公有云上,以此来平衡安全性、成本和灵活性。
2024-05-11