Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

推荐免费的tts公有模型站点,需要支持中文,克隆自己的声音

Answer

以下为您推荐支持中文且能克隆自己声音的免费 TTS 公有模型站点:

  • GPT-SoVITS:
    • 只需 1 分钟语音即可训练一个自己的 TTS 模型。
    • 5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音,且适配中文,界面易用。
    • 主要特点:
      • 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。
      • 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。
      • 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。
      • 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。
      • 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。
      • 预训练模型:项目提供了一些已经训练好的模型,您可以直接下载使用。
    • GitHub:https://github.com/RVC-Boss/GPT-SoVITS
    • 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/

需要注意的是,Stuart 模型存在一些问题:

  • 语音生成基本功能方面:
    • 支持的语音时长不超过 30 秒,超过 30 秒的需要特别修复。
    • 某些 audio seed 在念某些语句时会丢失一些语句。
    • Refine 过程中有些字会被丢失,比如“儿童节”在大概率会被 refine 成“童节”,丢失一个“儿”字。解决方法是跳过自动 refine,以手动修改文本的方式来控制停顿。
    • 即使同一个 audio seed,如果使用不同的语句分段方式,或者不同的 text seed,生成的音色也不是很稳定,会给人感觉不是同一个人的声音。
  • 代码 Bug:
    • uv_break 等提示词可能会在 refine 之后缺少[],甚至有时候在有中括号的情况下也会被念出来。
  • 没提供微调 SFT 的接口。
  • 本模型特别申明:不支持商用,仅用于学术研究。在生成的语音内,作者加了听不见的噪音水印,可以很容易的被检测出来是他的模型生成的语音。ChatTTS 还没放出训练代码无法自己克隆声音,作者还只放出了 4w 小时训练的版本,确保这个模型的声音能被 AI 检测出来。作者还留着一个 10w 小时训练数据的版本。
Content generated by AI large model, please carefully verify (powered by aily)

References

GPT-SoVITS实现声音克隆

GPT-SoVITS:只需1分钟语音即可训练一个自己的TTS模型。GPT-SoVITS是一个声音克隆和文本到语音转换的开源Python RAG框架。5秒数据就能模仿你,1分钟的声音数据就能训练出一个高质量的TTS模型,完美克隆你的声音!根据演示来看完美适配中文,应该是目前中文支持比较好的模型。界面也易用。主要特点:1、零样本TTS:输入5秒的声音样本即可体验即时的文本到语音转换。2、少量样本训练:只需1分钟的训练数据即可微调模型,提高声音相似度和真实感。模仿出来的声音会更加接近原声,听起来更自然。跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。3、易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和GPT/SoVITS模型。4、适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括Windows。5、预训练模型:项目提供了一些已经训练好的模型,你可以直接下载使用。GitHub:[https://github.com/RVC-Boss/GPT-SoVITS](https://t.co/BpHX4SlsO3)[…](https://t.co/BpHX4SlsO3)视频教程:[https://bilibili.com/video/BV12g4y1m7Uw/](https://t.co/Uo7WtSSUGO)[…](https://t.co/Uo7WtSSUGO)[[twi]@小互(@_twi(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/RymsbKdweody4Cxwtsqc7Yuenxd?allow_redirect=1)使用:

Stuart:一夜爆火的 ChatTTS 实测

1.语音生成基本功能1.1.支持的语音时长不超过30s,超过30秒的需要特别修复。1.2.某些audio seed在念某些语句时会丢失一些语句。1.3.Refine过程中有些字会被丢失,比如“儿童节”在大概率会被refine成“童节”,丢失一个“儿”字。1.3.1.解决方法:跳过自动refine,以手动修改文本的方式来控制停顿。1.4.即使同一个audio seed,如果使用不同的语句分段方式,或者不同的text seed,生成的音色也不是很稳定,会给人感觉不是同一个人的声音。2.代码Bug:2.1.uv_break等提示词可能会在refine之后缺少[],甚至有时候在有中括号的情况下也会被念出来,听多了,容易被洗脑,不自觉的自己说话也念出uv break作为口头禅。(多听几遍,很有那种m3?的洗脑上头效果?)[audio(10).wav](https://bytedance.feishu.cn/space/api/box/stream/download/all/UMT2bgjvjo1RIHxVg9PcODCnnGe?allow_redirect=1)3.没提供微调SFT的接口3.1.当然在底模已经提供的情况下,我们自己调用模型来做微调是可以的,但是项目本身没有提供相关的代码,对于大多数人来说,微调,或者说声音克隆就成了一个门槛。4.本模型特别申明:不支持商用,仅用于学术研究。4.1.⚠️在生成的语音内,作者加了听不见的噪音水印,可以很容易的被检测出来是他的模型生成的语音。ChatTTS还没放出训练代码无法自己克隆声音作者还只放出了4w小时训练的版本,确保这个模型的声音能被ai检测出来。作者还留着一个10w小时训练数据的版本

XiaoHu.AI日报

https://x.com/xiaohuggg/status/1747838869951910225?s=20 6⃣️?微软AutoGen Studio发布:-无代码平台,构建多功能AI代理。-提供编写代码、规划旅行、绘制股票图表等功能。?https://x.com/xiaohuggg/status/1747821655182000569?s=20 7⃣️?️GPT-SoVITS实现声音克隆:-1分钟语音训练个性化TTS模型。-支持中文,界面易用。?https://x.com/xiaohuggg/status/1747811318672007342?s=20 8⃣️?Motion新功能Video-to-Motion:-通过视频捕捉运动动作。-创建基于动作捕捉的角色视频。-提供FBX文件导出功能。[https://discord.gg/AapmuVJqxx](https://t.co/JjkC8N3rDE)?https://x.com/xiaohuggg/status/1747805383421472833?s=20

Others are asking
tts
语音合成(Text to Speech,TTS)是指将文本通过一系列的信号处理转换成“人造”语音。 技术原理: 传统的语音合成技术一般会经过以下三个步骤: 1. 文本与韵律分析:先将文本分词,标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。 2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。 3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后依次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。 参考资料: 出门问问的语音合成(TTS)API: 1. 接口描述: 接口请求域名:https://open.mobvoi.com/api/tts/v1 接口请求频率限制:5 次/秒 应用场景:在视频 APP 中作为配音解说;小说 App 完成有声阅读,移动 App 语音播报新闻;智能设备语音提醒;车载导航语音合成的个性化语音播报等。 提供多种方言和风格:包括普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格,满足客户在不同场景的选择需求。实时合成支持 SSML,语法详见 SSML 标记语言。 2. 请求参数: HTTP Method:支持 POST 请求 调用参数及说明: 字段名:text,必填,类型为 String,要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。 字段名:appkey,必填,类型为 String,开发者在 AI 开放平台上申请的 appkey。 字段名:signature,必填,类型为 String,签名,通过“appkey+secret+timestamp”进行 md5 加密,得到的 32 位 MD5 值。其中加号也参与 MD5 的计算。每次请求实时计算签名,签名有效期为 10 分钟。 字段名:timestamp,必填,类型为 Long,当前时间戳,单位为秒。 字段名:speaker,否,类型为 String,合成音频指定发音人,默认值:cissy_meet,其他发音人传值及计费价格请参考声音商店。 字段名:audio_type,否,类型为 String,合成音频的格式,默认值:mp3,可选值:pcm/mp3/speexwb10/wav,只支持这四种格式中的一种。 字段名:speed,否,类型为 Float,发音人合成的语速,支持小数点后两位,默认值:1.0,可选值:0.5 2.0。 Request Header 设置
2025-04-14
适合客户端使用的 tts 模型有什么
以下是一些适合客户端使用的 TTS 模型: 1. Fish Speech:语音处理接近人类水平,约十五万小时三语数据,对中文支持完美。开发者为 fishaudio,具有亿级参数,高效轻量,可在个人设备上运行和微调,适合作为私人语音助手。详细介绍及更多演示:https://xiaohu.ai/p/10779 ,GitHub:https://github.com/fishaudio/fishspeech 。 2. GPTSoVITS:只需 1 分钟语音即可训练一个自己的 TTS 模型,是一个声音克隆和文本到语音转换的开源 Python RAG 框架。5 秒数据就能模仿,1 分钟的声音数据就能训练出高质量的 TTS 模型,完美克隆声音。支持零样本 TTS、少量样本训练、跨语言支持、易于使用的界面等。GitHub: 。
2025-03-17
spark tts
SparkTTS 是基于 Qwen2.5 的高效文本转语音(TTS)系统,具有以下特点: 1. 超越现有 TTS,结合 Qwen2.5 进行端到端生成。 2. 支持细粒度语音控制,包括性别、音调、语速等自定义参数。 3. 具备零样本语音克隆功能,无需目标声音样本,即可生成个性化高质量声音。 4. 采用 BiCodec 编码架构,简化流程,提高推理效率。 5. 与 Qwen2.5 LLM 集成,可直接通过 LLM 处理 TTS 任务,无需额外声学模型。
2025-03-11
tts
语音合成(Text to Speech,TTS)是指将文本通过一系列的信号处理转换成“人造”语音。 技术原理: 1. 文本与韵律分析:先将文本分词,标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。 2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。 3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后依次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。 参考资料: 出门问问的语音合成(TTS)API: 接口请求域名:https://open.mobvoi.com/api/tts/v1 接口请求频率限制:5 次/秒 应用场景:在视频 APP 中作为配音解说;小说 App 完成有声阅读,移动 App 语音播报新闻;智能设备语音提醒;车载导航语音合成的个性化语音播报等。 提供多种方言和风格:包括普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格,满足客户在不同场景的选择需求。实时合成支持 SSML,语法详见 SSML 标记语言。 请求参数: HTTP Method:支持 POST 请求 调用参数及说明: 字段名:text,必填,类型为 String,要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。 字段名:appkey,必填,类型为 String,开发者在 AI 开放平台上申请的 appkey。 字段名:signature,必填,类型为 String,签名,通过“appkey+secret+timestamp”进行 md5 加密,得到的 32 位 MD5 值。其中加号也参与 MD5 的计算。每次请求实时计算签名,签名有效期为 10 分钟。 字段名:timestamp,必填,类型为 Long,当前时间戳,单位为秒。 字段名:speaker,否,类型为 String,合成音频指定发音人,默认值:cissy_meet,其他发音人传值及计费价格请参考声音商店。 字段名:audio_type,否,类型为 String,合成音频的格式,默认值:mp3,可选值:pcm/mp3/speexwb10/wav,只支持这四种格式中的一种。 字段名:speed,否,类型为 Float,发音人合成的语速,支持小数点后两位,默认值:1.0,可选值:0.5 2.0。 Request Header 设置
2025-02-28
TTS
语音合成(Text to Speech,TTS)是指将文本通过一系列的信号处理转换成“人造”语音。 技术原理: 1. 文本与韵律分析:先将文本分词,标明每个字的发音以及重音、停顿等韵律信息,然后提取文本的特征,生成特征向量。 2. 声学处理:通过声学模型将文本特征向量映射到声学特征向量。 3. 声音合成:使用声码器将声学特征向量通过反变换生成声音波形,然后依次拼接得到整个文本的合成语音。在反变换过程中,可以调整参数,从而改变合成语音的音色、语调、语速等。 参考资料: 出门问问的语音合成(TTS)API: 接口描述: 接口请求域名:https://open.mobvoi.com/api/tts/v1 接口请求频率限制:5 次/秒 可以将任意文本转化为语音,应用场景包括视频 APP 配音解说、小说 App 有声阅读、移动 App 语音播报新闻、智能设备语音提醒、车载导航语音合成的个性化语音播报等。提供了普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格。 请求参数: HTTP Method:支持 POST 请求 调用参数及说明: 字段名:text,必填,类型为 String,要合成的文本内容,限制为 1000 字符。支持 ssml 标记语言,使用说明见附录 3。 字段名:appkey,必填,类型为 String,开发者在 AI 开放平台上申请的 appkey。 字段名:signature,必填,类型为 String,签名,通过“appkey+secret+timestamp”进行 md5 加密,得到的 32 位 MD5 值。每次请求实时计算签名,签名有效期为 10 分钟。 字段名:timestamp,必填,类型为 Long,当前时间戳,单位为秒。 字段名:speaker,否,类型为 String,合成音频指定发音人,默认值:cissy_meet,其他发音人传值及计费价格请参考声音商店。 字段名:audio_type,否,类型为 String,合成音频的格式,默认值:mp3,可选值:pcm/mp3/speexwb10/wav,只支持这四种格式中的一种。 字段名:speed,否,类型为 Float,发音人合成的语速,支持小数点后两位,默认值:1.0,可选值:0.5 2.0。 Request Header 设置
2025-02-14
推荐免费的tts模型站点,需要支持中文
以下为您推荐两个免费的支持中文的 TTS 模型站点: 1. Fish Speech:语音处理接近人类水平,约十五万小时三语数据,对中文支持完美。开发者为 fishaudio,具有亿级参数,高效轻量,可在个人设备上运行和微调,适合作为私人语音助手。详细介绍及更多演示:https://xiaohu.ai/p/10779 ,GitHub:https://github.com/fishaudio/fishspeech 。 2. GPTSoVITS:只需 1 分钟语音即可训练一个自己的 TTS 模型,是一个声音克隆和文本到语音转换的开源 Python RAG 框架。5 秒数据就能模仿您,1 分钟的声音数据就能训练出一个高质量的 TTS 模型,完美克隆您的声音,完美适配中文。GitHub: 。
2025-02-07
声音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用方法: 特点: 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。 跨语言支持:支持英语、日语和中文等不同语言的推理。 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,方便初学者创建训练数据集和模型。 适用于不同操作系统:可在包括 Windows 在内的多种操作系统上安装和运行。 提供预训练模型:可直接下载使用。 使用: 开源数字人组合方案: 第一步:先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或 GPTSoVITS 克隆声音,做出文案的音频。 第二步:使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 。 GPTSoVITS 实现 AIyoyo 声音克隆: 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR 。 GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo 。成功后会出现新的 URL ,表示声音微调完毕。 声音复刻:可实现跨多语种语言的声音,如 AIyoyo 普通话 满江红 。 GitHub 地址: 。
2025-04-18
coze 语音克隆
以下是关于语音克隆的相关信息: 有一款适合小白用户的开源数字人工具,具有以下特点和功能: 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G + 3G 语音模型包,启动模型即可。 GitHub 链接: 官网链接: 另外,CosyVoice 声音克隆仅需几秒音频样本,无需额外训练数据,可控制情绪情感、语速、音高。 详细内容:https://xiaohu.ai/p/10954 项目地址:https://funaudiollm.github.io 在线演示:https://modelscope.cn/studios/iic/CosyVoice300M
2025-04-12
语音克隆
GPTSoVITS 是一个用于声音克隆和文本到语音转换的开源 Python RAG 框架,具有以下特点和使用步骤: 特点: 1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声且自然。 3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 6. 提供预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 使用步骤: 1. 前置数据获取处理: 选择音频,开启切割。 有噪音时,进行降噪处理。 降噪处理完成,开启离线 ASR。 2. GPTSowitsTTS: 训练集格式化:开启一键三连,耐心等待。 微调训练:开启 SoVITS 训练和 GPT 训练。 推理:开始推理 刷新模型 选择微调后的模型 yoyo。 3. 声音复刻:开启声音复刻之旅,可实现跨多语种语言的声音。 相关资源: GitHub:https://github.com/RVCBoss/GPTSoVITS 视频教程:https://bilibili.com/video/BV12g4y1m7Uw/ 注册 colab 并启动准备:点击进入按照步骤注册即可 https://colab.research.google.com/scrollTo=Wf5KrEb6vrkR&uniqifier=2 ,新建笔记本,运行脚本启动 GPTSo VITS,整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段运行;运行过程包括克隆项目代码库、进入项目目录、安装 Python 依赖包、安装系统依赖、下载 NLTK 资源、启动 Web UI,运行成功后出现 public URL。 实践样本: AIyoyo 普通话 满江红 AIyoyo 粤语版 满江红
2025-04-12
我想找一个克隆声音的网站
以下是一些可以克隆声音的网站: Elevenlabs.io speechify.com https://klingai.kuaishou.com/ Fish Audio:https://fish.audio/zhCN/train/newmodel/ (操作步骤:准备一段需要克隆的音频,打开网站上传音频,按照指引完成声音克隆,进入声音库选择需要使用的声音,输入文案生成音频文件并下载备用)
2025-03-31
比较适合语音克隆的有哪些AI
以下是一些适合语音克隆的 AI: :能将书面内容转化为引人入胜的音频,并实现无缝分发。 :提供专业音频、语音、声音和音乐的扩展服务。 (被 Spotify 收购):提供完全表达的 AI 生成语音,带来引人入胜的逼真表演。 :利用合成媒体生成和检测,带来无限可能。 :一键使您的内容多语言化,触及更多人群。 :生成听起来真实的 AI 声音。 :为游戏、电影和元宇宙提供 AI 语音演员。 :为内容创作者提供语音克隆服务。 :超逼真的文本转语音引擎。 :使用单一 AI 驱动的 API 进行音频转录和理解。 :听起来像真人的新声音。 :从真实人的声音创建逼真的合成语音的文本转语音技术。 :生成听起来完全像你的音频内容。 此外,还有以下相关信息: DubbingX2.0.3 中的海螺 AI 配音可以进行语音克隆,操作时需上传语音、命名声音、选择语言,原音频若有背景音乐最好在剪影中去除以保证生成的音色模型效果好且纯净。去除原音频背景杂音可通过打开剪映,按以下步骤操作:打开剪映,点击开始创作,导入原始音频或视频。 StepAudio:130B 语音文本多模态模型开源,集成语音识别、语义理解、对话生成、语音克隆、音频编辑、语音合成等功能,成本低质量高的语音克隆,支持“蒸馏”技术简化为更轻量版。
2025-03-31
克隆声音
以下是关于克隆声音的相关内容: 开源的数字人组合方案中,克隆声音的步骤如下: 1. 先剪出音频,可使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits(https://waytoagi.feishu.cn/wiki/SVyUwotn7itV1wkawZCc7FEEnGg )克隆声音,做出文案的音频。 2. 使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址为 https://github.com/Rudrabha/Wav2Lip 。产品可参考 https://synclabs.so/ 。 在剪映中克隆声音的步骤: 1. 打开剪映,点击左上角菜单——文本,从默认文本开始,在右边文本框输入文字。 2. 输入文字后,点击上面的菜单栏——朗读,会看到克隆音色和文本朗读两个按钮。 3. 克隆音色步骤:点击克隆音色——点击克隆。如果使用电脑版演示,未检测到麦克风时无法录制,手机版可直接点击下面的按钮开始录制。 4. 文本朗读:直接把输入的文本转换成剪映系统自带的各种成品音色,选择合适的音色,点击开始朗读即可生成。 5. 最后,删除输入的文本。 另外,还有配音工具 DubbingX 也可用于配音。
2025-03-31
当我想要解决一个问题,面对如此多的AI站点和AI智能体,我该如何选择?
在面对众多的 AI 站点和 AI 智能体时,您可以从以下几个方面进行选择: 1. 明确自身需求:确定您希望解决的具体问题和期望达到的目标,以便找到与之匹配的 AI 工具。 2. 了解功能特点:不同的 AI 智能体具有不同的功能和优势。例如,有些擅长自然语言处理和回答各种问题,有些则在特定领域如编程、设计等有出色表现。 3. 考虑技术能力:包括模型的性能、上下文窗口长度、响应速度和并发支持等。响应速度快、并发支持高的工具能在多人使用时保持良好性能。 4. 成本因素:关注免费或低价的选项,以降低使用成本。 5. 个性化需求满足:选择能够根据您的业务场景和个性化需求进行定制的 AI 智能体。 例如,字节的扣子(Coze)是新一代一站式 AI Bot 开发平台,无论有无编程基础都能构建各类问答 Bot,并可发布到多种社交平台和通讯软件上。而在开发 AI 插件时,像 AI Share Card 插件会根据需求选择合适的模型,如选用了具有较长上下文窗口、免费且并发支持高的 GLM4flash 模型。 总之,要综合考虑自身需求、功能特点、技术能力、成本和个性化等因素,选择最适合您的 AI 站点和智能体。
2025-02-04
免费生成AIPPT的站点有哪些
以下是一些免费生成 AIPPT 的站点: 1. AiPPT.cn: 技术优势:基于自然语言处理技术的语义分析,可帮助用户快速生成演示文稿。具有基于图像识别技术的 AI 插件,能实现智能化的 PPT 模板生成、字体自动化排版等功能。基于数据分析技术的个性化推荐,能根据用户需求和偏好提供量身定制的演示文稿模板和素材。通过了国家网信办 PPT 生成算法备案,同时获得 A 股上市公司视觉中国战略投资,拥有 5 亿+版权素材库和 10 万+PPT 模板,为用户提供版权无忧、图文并茂的内容创作体验。 商业模式:靠订阅工具业务赚钱,为全岗位职场人提供 10 余款 AIGC 工具,围绕企业内容工作流,满足工作中的 PPT、文案、H5、平面/视频制作、新媒体排版等高质量内容创作需求。 2. AutoAgents.ai:未来式智能是一家由创新工场投资,国内首批大语言模型技术落地和应用场景探索的公司。以自研 MultiAgent 架构为基础构建企业级 Agent“灵搭”平台,为企业提供 AI Copilot、Autopilot、Autonomous Agent 等智能体产品与服务。基于自主研发的企业级 Agent 应用构建平台,致力于解决大语言模型到场景化落地应用“最后一公里”问题。通过打破传统固化业务流,帮助企业构建高度智能化的底层通用业务流,打造人机共创的工作新范式,引领企业业务流程智能化升级,让全球 10 亿知识工作者 10 倍效工作。
2025-01-01
文生图站点推荐
以下是为您推荐的一些文生图站点和工具: 1. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,可生成高质量图片,支持多种模型和算法。 3. MidJourney:因高质量的图像生成效果和友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您还可以在 WaytoAGI 网站(https://www.waytoagi.com/category/104)查看更多文生图工具。 关于文生图写提示词,通常的描述逻辑包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)等。对于新手,有以下功能型辅助网站帮助书写提示词: 1. http://www.atoolbox.net/ :通过选项卡方式快速填写关键词信息。 2. https://ai.dawnmark.cn/ :每种参数都有缩略图参考,方便直观选择提示词。 3. 还可以去 C 站(https://civitai.com/)抄作业,每一张图都有详细参数,可点击复制数据按钮,粘贴到正向提示词栏,然后点击生成按钮下的第一个按键,不过要注意图像作者使用的大模型和 LORA。 以下是一些用户在工作中使用文生图的情况: |姓名|联系方式|用途| |||| |薄荷|电商应用出图,辅助创意落地| |龙飞|用于海报生成| |wangzhao111|15571666325|不知道| |Crossing|AI 摄影、图生视频等| |朔|13670516075|大图像以及视频工作流| |Roger|18658866328|工作| |秦梧御|15966569697|视频| |dwing3|13702513842|出图| |May|18018539454|应用| |王西西|18820134184|还不清楚| |丘嘉杰|13413477173|文生图,图生图,图生视频| |吴林林|13968945722|自用,给朋友做写真| |刘燕兰|13066870649|电商应用| |朱鹏|18781609127|广告出图| |水水|视频制作| |韩影|17801234978|作图,做视频| |斌哥|18250885849|自媒体| |德方|18600081286|设计、建模、绘图、效果图、视频| |树一|15659268616|自媒体| |任振亮|13513700768|自媒体| |陈锦燊|16698528851|视觉设计、快速出图| |李恒安|18366606265|动漫| |谌峰|13925911177|视频,人物,室内设计|
2024-10-14
comfyui的workflow站点推荐
ComfyUI 工作流网站推荐: ComfyWorkflows 网站:https\://comfyworkflows.com/cloud,支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Openart.ai:https\://openart.ai/workflows/,“老牌”workflow 网站,流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 什么是 ComfyUI 的 Workflow?Workflow 是 ComfyUI 的精髓。所谓 Workflow 工作流,在 ComfyUI 这里就是它的节点结构及数据流运转过程。
2024-05-26
针对想了解目前AI发展情况或AI对办公有什么提高效率的人群设计一份15道选择题的问卷
以下是一份关于 AI 发展情况及对办公效率提升的 15 道选择题问卷: 1. 您是否了解当前 AI 的发展状况? A. 非常了解 B. 了解一些 C. 不太了解 D. 完全不了解 2. 您认为 AI 对办公效率的提升作用主要体现在哪些方面?(可多选) A. 数据处理 B. 文档撰写 C. 会议安排 D. 任务分配 E. 其他 3. 在您的工作中,是否已经开始使用 AI 工具? A. 是 B. 否 4. 如果您使用了 AI 工具,您觉得它对您工作的帮助程度如何? A. 非常大 B. 较大 C. 一般 D. 较小 E. 几乎没有 5. 您认为 AI 工具在以下哪些方面能够提高办公效率?(可多选) A. 节省时间 B. 提高准确性 C. 创新思维 D. 优化流程 E. 其他 6. 您觉得 AI 工具在办公中的应用是否存在风险? A. 是 B. 否 7. 如果存在风险,您认为主要是哪些方面?(可多选) A. 数据安全 B. 隐私泄露 C. 错误决策 D. 其他 8. 您认为 AI 工具在未来几年内对办公方式的改变程度会如何? A. 巨大 B. 较大 C. 一般 D. 较小 E. 几乎不变 9. 您所在的团队是否已经开始使用 AI 工具? A. 是 B. 否 10. 如果团队使用了 AI 工具,您认为它对团队工作方式的影响程度如何? A. 非常大 B. 较大 C. 一般 D. 较小 E. 几乎没有 11. 您认为 AI 工具在哪些工作环节上能够发挥最大的作用?(可多选) A. 策划 B. 执行 C. 监督 D. 评估 E. 其他 12. 您是否愿意在未来更多地使用 AI 工具来提高工作效率? A. 非常愿意 B. 愿意 C. 不确定 D. 不愿意 E. 非常不愿意 13. 您认为目前阻碍 AI 工具在办公中广泛应用的主要因素是什么?(可多选) A. 技术不成熟 B. 成本过高 C. 员工培训不足 D. 其他 14. 您认为 AI 工具在未来会取代人类的工作吗? A. 会 B. 不会 C. 部分取代 D. 不确定 15. 对于 AI 在办公领域的发展,您的态度是? A. 积极支持 B. 谨慎对待 C. 无所谓 D. 反对
2024-08-21
agent一般是私有化部署,还是公有化部署
AI助手或智能代理(Agent)的部署可以是私有化部署,也可以是公有化部署,具体取决于应用场景、需求、安全考虑以及成本效益等因素。 1. 私有化部署: 在企业或组织的内部网络中部署,通常用于处理敏感数据或需要高度定制化的服务。 提供更高的安全性和隐私保护,因为系统不公开于互联网。 允许更精细的控制和管理,适合有特定业务流程和需求的企业。 2. 公有化部署: 在云服务提供商的基础设施上部署,通过互联网提供服务。 易于扩展,维护成本较低,因为云服务商负责大部分的维护工作。 适用于面向公众的服务,如在线客服机器人、开放平台的API服务等。 选择哪种部署方式取决于以下因素: 数据敏感性:如果处理的数据非常敏感,私有化部署更有利于保护数据安全。 成本:私有化部署可能需要更多的初始投资,而公有化部署可能带来更高的灵活性和可扩展性。 维护能力:如果企业有足够的技术力量来维护私有化部署的系统,这可能是一个更好的选择。 定制化需求:私有化部署更容易根据企业的特定需求进行定制。 法规遵从性:某些行业或地区的法律法规可能要求企业必须进行私有化部署。 在实际应用中,一些企业可能会选择混合部署模式,即在私有云中部署核心的、敏感的业务组件,同时将一些非核心或较不敏感的组件部署在公有云上,以此来平衡安全性、成本和灵活性。
2024-05-11