Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

声音复刻

Answer

声音复刻主要通过 GPT-SoVITS 来实现,以下是相关步骤和信息:

  1. 前置数据获取处理:
    • 选择音频并进行切割。
    • 若有噪音,进行降噪处理。
    • 降噪处理完成后,开启离线 ASR。
  2. GPT-Sowits-TTS:
    • 训练集格式化:开启一键三连,耐心等待。
    • 微调训练:开启 SoVITS 训练和 GPT 训练。
    • 推理:开始推理,刷新模型,选择微调后的模型(如 yoyo)。
  3. 声音复刻:开启声音复刻之旅,可实现跨多语种语言的声音。
  4. 实践的样本:

GPT-SoVITS 是一个声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点:

  1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。
  2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感。
  3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。
  4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。
  5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。
  6. 预训练模型:项目提供了一些已经训练好的模型,你可以直接下载使用。

GitHub:https://github.com/RVC-Boss/GPT-SoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/

此外,还有以下开源 TTS 数据可供参考: |汇总|大量语音数据的汇总|[https://github.com/RevoSpeechTech/speech-datasets-collection] |----|----|----| |TTS|WenetSpeech4TTS|12,800 小时的配对音频 - 文本数据|[https://huggingface.co/datasets/Wenetspeech4TTS/WenetSpeech4TTS] |TTS|[米哈游 - 星穹铁道]|包含中文和日语英文韩语,请注意版权问题!|[https://github.com/AI-Hobbyist/StarRail_Datasets] |TTS|[米哈游 - 原神]|包含中文和日语英文韩语,请注意版权问题!|[https://github.com/AI-Hobbyist/Genshin_Datasets] |TTS|赛博朋克 2077|请注意版权问题!|[https://openi.pcl.ac.cn/Stardust_minus/fish-speech/datasets] |TTS-中文|[baker 标贝女声]|12 小时|[https://www.data-baker.com/open_source.html] |TTS-中文|[Aishell-3]|85 小时多说话人数据|[http://www.aishelltech.com/aishell_3] |TTS-中文|[DiDiSpeech]|500 人 60 小时,但目前已经 404 无法再获取|[https://outreach.didichuxing.com/research/opendata/] |TTS-中文|[OpenSLR]|提供各种语言的合成、识别等语料|[https://www.openslr.org/resources.php] |TTS-中文|zhvoice|3200 说话人 900 小时,用于声音复刻,合成,识别等|[https://github.com/fighting41love/zhvoice] |TTS-英文|LibriTTS|基于 Librispeech 筛选而来,更适合用于做 TTS,采样率 24k,大约 585 小时 2,456 人,其中的 train-clean-100 包含 53.8 小时/247 个发言人|[https://www.openslr.org/60/] |TTS-英文|LJ Speech|大约 24 小时|[https://keithito.com/LJ-Speech-Dataset/]

Content generated by AI large model, please carefully verify (powered by aily)

References

GPT-SoVITS-实现 AIyoyo 声音克隆

1.[heading4]微调训练[content]1.开启SoVITS训练,&开启GPT训练[heading4]推理[content]1.开始推理-刷新模型-选择微调后的模型-yoyo[heading4]成功[content]出现新的URL,说明你自己的声音微调完毕,然后可以进行啦[heading3]四、声音复刻[heading4]开启声音复刻之旅吧[content]1.实现跨多语种语言的声音,不是梦[heading4]实践的样本[content]AIyoyo普通话-满江红[满江红普通话。wav](https://drive.weixin.qq.com/s?k=AJMA1Qc4AAwbkbzYu0AQ8AbQYrAGo)AIyoyo粤语版-满江红[满江红粤语。wav](https://drive.weixin.qq.com/s?k=AJMA1Qc4AAwsRaRfHrAQ8AbQYrAGo)[heading2]五、关于我[content]大家好~我是yoyo🐱🐈坐标北京,铲屎官一枚🫡AIGC的小白,持续进阶成长,致力于打造一个自己的智能体☕️以上期待能够给到各位一点启发感谢家属带我在“[通往AGI之路](https://waytoagi.feishu.cn/wiki/QPe5w5g7UisbEkkow8XcDmOpn8e)”打开新世界,接触有趣的事情,结识有趣的人

GPT-SoVITS实现声音克隆

GPT-SoVITS:只需1分钟语音即可训练一个自己的TTS模型。GPT-SoVITS是一个声音克隆和文本到语音转换的开源Python RAG框架。5秒数据就能模仿你,1分钟的声音数据就能训练出一个高质量的TTS模型,完美克隆你的声音!根据演示来看完美适配中文,应该是目前中文支持比较好的模型。界面也易用。主要特点:1、零样本TTS:输入5秒的声音样本即可体验即时的文本到语音转换。2、少量样本训练:只需1分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。3、易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和GPT/SoVITS模型。4、适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括Windows。5、预训练模型:项目提供了一些已经训练好的模型,你可以直接下载使用。GitHub:[https://github.com/RVC-Boss/GPT-SoVITS](https://t.co/BpHX4SlsO3)[…](https://t.co/BpHX4SlsO3)视频教程:[https://bilibili.com/video/BV12g4y1m7Uw/](https://t.co/Uo7WtSSUGO)[…](https://t.co/Uo7WtSSUGO)[[twi]@小互(@_twi(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/RymsbKdweody4Cxwtsqc7Yuenxd?allow_redirect=1)使用:

TTS 数据整理

|汇总||大量语音数据的汇总|https://github.com/RevoSpeechTech/speech-datasets-collection||-|-|-|-||TTS|WenetSpeech4TTS|12,800小时的配对音频-文本数据|[https://huggingface.co/datasets/Wenetspeech4TTS/WenetSpeech4TTS](https://huggingface.co/datasets/Wenetspeech4TTS/WenetSpeech4TTS)||TTS|[米哈游-星穹铁道](https://github.com/AI-Hobbyist/StarRail_Datasets)|包含中文和日语英文韩语,请注意版权问题!|https://github.com/AI-Hobbyist/StarRail_Datasets||TTS|[米哈游-原神](https://github.com/AI-Hobbyist/Genshin_Datasets)|包含中文和日语英文韩语,请注意版权问题!|[https://github.com/AI-Hobbyist/Genshin_Datasets](https://github.com/AI-Hobbyist/Genshin_Datasets)||TTS|赛博朋克2077|请注意版权问题!|[https://openi.pcl.ac.cn/Stardust_minus/fish-speech/datasets](https://openi.pcl.ac.cn/Stardust_minus/fish-speech/datasets)||TTS-中文|[baker标贝女声](https://www.data-baker.com/open_source.html)|12小时|[https://www.data-baker.com/open_source.html](https://www.data-baker.com/open_source.html)||TTS-中文|[Aishell-3](http://www.aishelltech.com/aishell_3)|85小时多说话人数据|[http://www.aishelltech.com/aishell_3](http://www.aishelltech.com/aishell_3)||TTS-中文|[DiDiSpeech](https://outreach.didichuxing.com/research/opendata/)|500人60小时,但目前已经404无法再获取|[https://outreach.didichuxing.com/research/opendata/](https://outreach.didichuxing.com/research/opendata/)||TTS-中文|[OpenSLR](https://www.openslr.org/resources.php)|提供各种语言的合成、识别等语料|https://www.openslr.org/resources.php||TTS-中文|zhvoice|3200说话人900小时,用于声音复刻,合成,识别等|[https://github.com/fighting41love/zhvoice](https://github.com/fighting41love/zhvoice)||TTS-英文|LibriTTS|基于Librispeech筛选而来,更适合用于做TTS,采样率24k,大约585小时2,456人,其中的train-clean-100包含53.8小时/247个发言人|[https://www.openslr.org/60/](https://www.openslr.org/60/)||TTS-英文|LJ Speech|大约24小时|[https://keithito.com/LJ-Speech-Dataset/](https://keithito.com/LJ-Speech-Dataset/)|

Others are asking
现在AI领域做语音模型比较好的有哪几家?音色复刻做的比较好的有哪些
在 AI 领域,做语音模型较好的有阿里,其 CosyVoice 语音合成模型有以下特点: 精细控制:能生成符合性别、年龄和个性特征的声音。 自然模拟:可模拟笑声、咳嗽和呼吸等人类语音自然特征。 情感和风格:能够为声音添加情感和风格,更具表现力。 GitHub 链接:https://github.com/FunAudioLLM/CosyVoice 相关链接:https://x.com/imxiaohu/status/1818942399705710700 。但关于音色复刻做的比较好的,上述信息中未明确提及。
2025-01-19
声音复刻
声音复刻相关知识如下: GPTSoVITS 实现声音克隆: 只需 1 分钟语音即可训练一个自己的 TTS 模型,是一个声音克隆和文本到语音转换的开源 Python RAG 框架。 5 秒数据就能模仿,1 分钟声音数据可训练出高质量 TTS 模型,完美克隆声音,适配中文,界面易用。 主要特点包括零样本 TTS、少量样本训练、跨语言支持、易用界面、适用于不同操作系统、提供预训练模型。 GitHub 链接: 视频教程: 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR。 GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo。 成功后出现新的 URL 表明声音微调完毕。 声音复刻之旅:可实现跨多语种语言的声音。 实践样本:AIyoyo 普通话 满江红 TTS 数据整理: 开源 TTS 数据汇总: 大量语音数据的汇总:https://github.com/RevoSpeechTech/speechdatasetscollection WenetSpeech4TTS:12,800 小时的配对音频 文本数据, 米哈游 星穹铁道:包含中文和日语英文韩语,请注意版权问题!https://github.com/AIHobbyist/StarRail_Datasets 米哈游 原神:包含中文和日语英文韩语,请注意版权问题! 赛博朋克 2077:请注意版权问题! baker 标贝女声:12 小时, Aishell3:85 小时多说话人数据, DiDiSpeech:500 人 60 小时,但目前已经 404 无法再获取, OpenSLR:提供各种语言的合成、识别等语料,https://www.openslr.org/resources.php zhvoice:3200 说话人 900 小时,用于声音复刻,合成,识别等, LibriTTS:基于 Librispeech 筛选而来,更适合用于做 TTS,采样率 24k,大约 585 小时 2,456 人,其中的 trainclean100 包含 53.8 小时/247 个发言人, LJ Speech:大约 24 小时,
2025-01-10
声音复刻
声音复刻相关内容如下: GPTSoVITS 实现 AIyoyo 声音克隆: 前置数据获取处理:选择音频,开启切割;有噪音时,进行降噪处理;降噪处理完成,开启离线 ASR。 GPTSowitsTTS:训练集格式化需开启一键三连,耐心等待;包括微调训练、推理,推理时开始推理刷新模型选择微调后的模型yoyo,成功后会出现新的 URL 表明声音微调完毕。 声音复刻:可以开启声音复刻之旅,能够实现跨多语种语言的声音。 实践的样本:AIyoyo 普通话满江红 。 GPTSoVITS 实现声音克隆: GPTSoVITS 是一个声音克隆和文本到语音转换的开源 Python RAG 框架。只需 1 分钟语音即可训练一个自己的 TTS 模型,5 秒数据就能模仿,1 分钟的声音数据就能训练出高质量的 TTS 模型,完美克隆声音。主要特点包括零样本 TTS、少量样本训练、跨语言支持、易于使用的界面、适用于不同操作系统、提供预训练模型。 GitHub: 。 TTS 数据整理: 开源 TTS 数据汇总: 大量语音数据的汇总: TTS WenetSpeech4TTS:12,800 小时的配对音频 文本数据: TTS 米哈游 星穹铁道:包含中文和日语英文韩语,请注意版权问题! TTS 米哈游 原神:包含中文和日语英文韩语,请注意版权问题! TTS 赛博朋克 2077:请注意版权问题! TTS 中文 baker 标贝女声:12 小时 TTS 中文 Aishell3:85 小时多说话人数据 TTS 中文 DiDiSpeech:500 人 60 小时,但目前已经 404 无法再获取 TTS 中文 OpenSLR:提供各种语言的合成、识别等语料 TTS 中文 zhvoice:3200 说话人 900 小时,用于声音复刻,合成,识别等 TTS 英文 LibriTTS:基于 Librispeech 筛选而来,更适合用于做 TTS,采样率 24k,大约 585 小时 2,456 人,其中的 trainclean100 包含 53.8 小时/247 个发言人 TTS 英文 LJ Speech:大约 24 小时
2024-12-16
AI复刻怎么做
AI 复刻,以吴恩达开源的 AI 翻译项目 Coze 为例,主要步骤如下: 1. 初步的翻译大模型节点:选择一个大模型对源语言文本进行初始翻译,如选择 MiniMax 大模型,提示词可参考吴恩达教授的相关内容。 2. 选择器节点:判断用户填写的要求中是否有特殊的语言翻译特色或口音。 3. 反思优化的大模型节点:配置反思优化的提示词,告诉模型如何思考和优化翻译结果。提示词的设计至关重要,可参考项目给出的示例提示词,也可根据自身经验和需求改进。 4. 结合反思优化建议再翻译的大模型节点:结合反思优化的建议和初始翻译结果再次进行翻译,以获得更好的翻译结果。 此外,该项目还具有以下特点: 1. 反思优化:通过对自身的反思和优化来提升翻译质量。 2. 使用工具:借助外部工具和资源。 3. 计划:预先制定好 Agent 的实现计划。 4. 多 Agent 合作:通过多个 Agent 之间的合作实现目标。 同时,项目还引入了一些创新点,如分块处理(将长文本拆分成若干小块分别进行翻译和优化,提高处理效率和局部优化效果)和语言习惯指定。 首先,在 Coze 上新建一个工作流,逐步导入核心流程。工作流分为若干节点,每个节点完成特定任务,组合形成完整翻译流程。运行测试时可看到每个节点的执行过程和结果。开始节点需选择翻译的源语言和目标语言,还可设置其他参数,如翻译的语言特色等,建议根据实际情况调整。
2024-09-23
如果让 ai 复刻《千里江山图》的局部细节,该如何写提示词
要让AI复刻《千里江山图》的局部细节,需要提供清晰、具体的指令,以确保AI能够理解并执行任务。以下是一些可能的提示词和步骤: 1. 明确任务:首先,明确告诉AI你想要复刻的是《千里江山图》的哪个部分,例如:“请复刻《千里江山图》中的山水细节。” 2. 详细描述:提供该局部细节的具体描述,包括颜色、纹理、风格等特征,例如:“重点复刻山峦的层次、水波的流动感以及树木的形态。” 3. 风格指定:如果需要保持原作的风格,可以指定:“请保持宋代山水画的细腻笔触和深远意境。” 4. 技术要求:如果需要特定的技术或效果,例如:“使用高精度的图像处理技术,确保细节的清晰度和真实感。” 5. 尺寸和比例:指定复刻作品的尺寸和比例,例如:“复刻尺寸为原图的一半,保持原有比例。” 6. 材料和工具:如果AI复刻作品需要使用特定的材料或工具,可以指定:“使用数字绘图板和高级绘画软件。” 7. 质量标准:设定作品的质量标准,例如:“确保复刻作品的色彩和细节与原画高度一致。” 8. 反馈和修正:如果AI可以进行交互,可以要求:“在复刻过程中,根据我的反馈进行必要的修正。” 9. 版权和法律:提醒AI注意版权和法律问题,例如:“在复刻过程中,请确保遵守相关的版权法规。” 10. 最终目标:明确复刻作品的最终目标,例如:“复刻的目的是为了艺术教育和展览,需要具有高度的艺术价值。” 结合以上提示,一个完整的提示词示例可能是: “请复刻《千里江山图》中山水细节部分,重点体现山峦层次、水波流动和树木形态,保持宋代山水画的细腻笔触和深远意境。使用高精度图像处理技术,确保细节清晰度和真实感。复刻尺寸为原图的一半,保持原有比例。使用数字绘图板和高级绘画软件,确保色彩和细节与原画高度一致。在复刻过程中,根据我的反馈进行修正,并确保遵守版权法规。复刻作品用于艺术教育和展览,需要具有高度的艺术价值。” 请注意,AI的复刻能力取决于其训练数据和算法的复杂性,可能无法完全达到人类艺术家的水平。
2024-06-04
推荐用于声音复刻的AI工具
可使用这个 AI 工具进行声音复刻。它是一个带 Web 界面简单易用的声音克隆工具。可使用任何人类音色,将一段文字合成为使用该音色说话的声音,或者将一个声音使用该音色转换为另一个声音。
2024-05-01
免费克隆一个人的声音
以下是一些可以免费克隆一个人声音的工具和平台: PlayHT:https://play.ht/studio/ ,包含预设音色,可免费克隆一个音色,若想生成多个,删除上一个音色即可做新的。 Elevenlabs:https://elevenlabs.io/app ,包含预设音色,新用户 1 美元开通一个月会员,可使用克隆音色。 魔搭社区:https://www.modelscope.cn/home ,是一个模型开源社区及创新平台,由阿里巴巴通义实验室联合 CCF 开源发展委员会共同发起,包含各种声音模型,有开发经验的朋友可使用。 Dubbingx:https://dubbingx.com/ ,免费克隆音色,有桌面版,Mac、Window 均可用。 魔音工坊:https://www.moyin.com/
2025-01-21
利用自己的声音歌唱AI生成歌曲
以下是一些利用自己的声音歌唱 AI 生成歌曲的相关信息: 1. LAIVE:这是一个利用 AI 技术一次性生成音乐、歌词、主唱等的创作平台。使用者可以选择喜欢的类型和情调,上传参考音源,AI 会通过分析生成音乐,还可以选择主唱和修改歌词,目前为开放测试阶段。输入促销代码“LAIVEcreator”可获得 50 代币(入口在个人资料),令牌有效期为输入代码后的 30 天,促销码失效日期为 4 月 17 日。链接:https://www.laive.io/ 2. Combobulator:DataMind Audio 推出的基于 AI 的效果插件,利用神经网络通过样式转移的过程重新合成输入音频,从而使用您自己的声音重现其他艺术家的风格。链接:https://datamindaudio.ai/ 3. 大峰的经验分享:用 Suno 生成歌曲时,在填写歌曲风格时填写少量风格词,如中国风,给 AI 更多发挥空间。靠音乐审美从生成的歌曲中选出中意的歌曲。将歌词发给 GPT 并告知想法,让其以英文 AI 绘画提示词的形式提供每句歌词的每个分镜,然后丢进 AI 生图平台(如 Midjourney)生成图片,再用 Runway 进行图生视频。 4. UDIO 制作音乐:Udio 不会使用艺术家的声音生成歌曲,在幕后风格参考会被一组相关标签替换。在文本输入下方有两种类型的建议标签可点击添加到提示中,自动完成是当前单词的建议标签补全,您可以移动插入符号到提示的任何部分,相应更改完成。
2025-01-20
声音转文字工具
以下是为您推荐的一些声音转文字工具: 1. 飞书妙记(https://www.feishu.cn/product/minutes):飞书的办公套件之一。 2. 通义听悟(https://tingwu.aliyun.com/home):阿里推出的 AI 会议转录工具。 3. 讯飞听见(https://www.iflyrec.com/):讯飞旗下智慧办公服务平台。 4. Otter AI(https://otter.ai/):转录采访和会议纪要。 更多会议记录工具请访问网站:https://waytoagi.com/sites/category/29 。 此外,在某些场景中还会使用到 GVoice 提供的语音录制和识别能力,中文识别率优秀。听写字幕、翻译配音工具 memo.ac 以及通义听悟也可用于声音转文字。 内容由 AI 大模型生成,请仔细甄别。
2025-01-20
把视频声音提取成文本
以下是关于视频声音相关处理的信息: 视频配音效的 AI 工具: 支持 50 多种语言的配音,音质自然流畅。 提供实时配音功能,适用于直播和演讲。 能将语音转录为文本,方便后期字幕制作和编辑。 与多种生产力和学习工具整合。 Vidnoz AI 特点: 支持 23 多种语言的配音,音质高保真。 支持文本转语音和语音克隆功能。 提供语音参数自定义和背景音乐添加工具。 提供面向个人和企业的经济实惠的定价方案。 把小说做成视频的流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 ChatTTS 增强版整合包: 文本内容很多时,可勾选文本切割来处理,默认为五十字符切割,还能将音频片段合并为一整段音频,切割的音频片段也支持增强处理。 保存后的音频文件结构清晰,concatenated Audio 是合成的一整段音频,Enhanced Audio 是增强处理后的整段音频,Audio clip 文件夹中是切分的音频片段,Enhanced 开头的是增强处理的音频片段,不带 Enhanced 是生成的普通音频片段。 增加了批量处理功能,勾选后可上传一个 TXT 文本,TXT 文本需按每句换行的格式。 可以点击随机按钮选择音色,找到满意的音色后,可将设置和音色种子保存到配置文件中方便下次使用。
2025-01-06
做卖货视频,想要把其中的人物和部分物体换掉,声音也换掉,可以用哪些方法
以下是一些可以用于做卖货视频时换掉人物、部分物体和声音的方法: 1. 数字人脸创作: 可以使用一系列逼真的照片或插图人脸来创造,所有人脸都经过优化,在添加语音和动作时能实现最佳效果。 上传自己的照片,如自己、朋友或家人的面部照片进行创作。 利用 DID 自带的 Stable Diffusion 的能力生成想象中的人脸,如描述“一个外星女神”“一个微笑的十九世纪维多利亚绅士”等。 数字人像添加到人脸库后可随意重复使用,输入新脚本让其说话。 2. 数字人说话方式: 用 GPT 直接生成脚本让数字人说话。 利用 GPT3 文本生成技术撰写脚本。 先选好脸,再输入脚本。 输入准备好的脚本,在 DID 中选择数百种语言和口音,并调整角色说话风格。 上传自己的音频记录,或从电影、电视剧中剪辑喜欢的台词、吟唱自编的歌曲。 3. 相关工具和操作指引: 利用 TecCreative 工具,如数字人口播配音,输入口播文案,选择期望生成的数字人形象及目标语言即可生成数字人口播视频。 图片换脸,仅需上传原始图片和换脸图片,即可一键实现素材换脸。 视频换脸,自动识别视频中的人脸,并将其替换为选择的脸部。 音频合成数字人,上传音频文件,选择数字人角色和输出类型即可生成。 AI 配音,多语种智能配音,区分男声和女声。 AI 字幕,智能识别视频语言并生成对应字幕。 4. 实战操作: 准备视频中播放的内容文字,可利用 AI 生成。 使用剪映 App 对视频进行简单处理,如添加文字内容轨道,替换默认文本内容等。
2024-12-30