Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

数字人api

Answer

以下是关于数字人 API 的相关信息:

  • HeyGen 开放数字人 API,提供虚拟人制作、视频翻译和互动虚拟人等功能,可应用于在线营销、客户支持、培训教程等多场景,助力打造全球化、多语言互动数字体验。相关链接:https://xiaohu.ai/p/15442
  • 出门问问提供语音合成(TTS)API,接口请求域名:https://open.mobvoi.com/api/tts/v1,接口请求频率限制为 5 次/秒。其语音合成技术可以将任意文本转化为语音,应用场景广泛,如视频 APP 配音解说、小说 App 有声阅读等,并提供多种方言和风格。请求参数方面,HTTP Method 支持 POST 请求。

如果您对 ComfyUI 部署不了解,但想体验并使用数字人照片的驱动及 AI 配音,可以微信搜索「奇妙元」「魔音工坊」,或扫描二维码。若在实操中遇到报错问题,如打开 ComfyUI 调用 api 的节点丢失爆红,需检查是否下载了 api 节点的包,放进 node 里再试试;若输出节点框显示 404,可查看 text 文字情况,也可以获取生成的链接,从浏览器的页面打开即可下载。目前发现官方的 python311 版本和节点有安装依赖冲突,若节点正确放到节点文件夹仍然爆红请使用 python310 运行安装环境依赖。若使用 310 仍然爆红,可以联系 Wechat:9755294(备注 ComfyUI)。

Content generated by AI large model, please carefully verify (powered by aily)

References

XiaoHu.AI日报

🔔Xiaohu.AI日报「11月13日」✨✨✨✨✨✨✨✨1⃣️🎨字节跳动AI图像编辑工具:SeedEdit实现全自动P图,只需文字描述即可编辑图片。能改变背景、服装颜色、灯光等,效果逼真且保持高质量。无需专业技能,简化了Photoshop式的复杂操作。🔗[https://mp.weixin.qq.com/s/glwWLWYY46TWfl379y0Rzg](https://mp.weixin.qq.com/s/glwWLWYY46TWfl379y0Rzg)🔗[https://xiaohu.ai/p/15408](https://xiaohu.ai/p/15408)2⃣️🧬Google DeepMind开源AlphaFold 3:AlphaFold 3扩展到DNA、RNA、配体等生物分子结构预测。助力全球科学家推动生命科学发展。目标是全方位预测生命中的分子结构。🔗[https://xiaohu.ai/p/15436](https://xiaohu.ai/p/15436)3⃣️🤖HeyGen开放数字人API:提供虚拟人制作、视频翻译和互动虚拟人等功能。应用于在线营销、客户支持、培训教程等多场景。助力打造全球化、多语言互动数字体验。🔗[https://xiaohu.ai/p/15442](https://xiaohu.ai/p/15442)4⃣️🚜全地形越野机器人"山猫":

照片数字人工作流及语音合成(TTS)API- 出门问问Mobvoi

如果你对ComfyUI部署不了解,但也想体验并使用数字人照片的驱动及AI配音,可以微信搜索「奇妙元」「魔音工坊」,或扫描下方二维码就可以玩起来了。另,有vip会员福利兑换体验享受更多的功能权益。CDK:AIGC2024[heading1]实操报错-解决指南(持续补充中)[content]1.打开ComfyUI调用api的节点丢失爆红;比如像图片里的这样👇需检查是否下载了api节点的包,放进node里再试试~1.输出节点框显示404;本流对云服镜像不友好,正常情况下所有节点都会显示,如果工作流打开生成的review节点显示404,不要慌~这个时候查看text文字情况,也可以获取生成的链接,从浏览器的页面打开即可下载⏬。具体流程为在STRING输出端左键拉取“展示文本”节点,然后运行json文件,“展示文本”节点会显示该视频的网页链接,复制到浏览器就可以直接下载啦。下图为正常的情况展示,若最后一个review节点显示404,请参考上文解决。1.(6.14更新):目前发现官方的python311版本和节点有安装依赖冲突,若节点正确放到节点文件夹仍然爆红请使用python310运行安装环境依赖。若使用310仍然爆红,可以联系我们![heading1]联系我们[content]有任何问题都可以戳JessyJang👉Wechat:9755294(备注ComfyUI),也欢迎进群跟我们交流工作流!特别鸣谢Chaojie、Zho、AJ、guohunyo、Leo、慕雲、三思对工作流及本文档的贡献❤️Best Wishes.

照片数字人工作流及语音合成(TTS)API- 出门问问Mobvoi

1.接口描述接口请求域名:https://open.mobvoi.com/api/tts/v1接口请求频率限制:5次/秒出门问问语音合成技术(TTS)可以将任意文本转化为语音,实现让机器和应用张口说话。出门问问TTS技术可以应用到很多场景,例如,在视频APP中作为配音解说;小说App完成有声阅读,移动App语音播报新闻;智能设备语音提醒;车载导航语音合成的个性化语音播报等。出门问问TTS服务提供了普通话、台湾腔、粤语、四川话、东北话等多种方言,数百个发音人,上千种风格,满足客户在不同场景的选择需求。实时合成支持SSML,语法详见SSML标记语言。1.请求参数HTTP Method:支持POST请求调用参数及说明:

Others are asking
AI换衣API推荐, 并多维度对比,选择最适合的API推荐给我
以下为您推荐的 AI 换衣相关的 API 并进行多维度对比: Comfyui_Object_Migration: 特点:可高精度迁移服装样式到目标人物图像,保持高一致性和细节完整性,支持从卡通到写实的风格互相转换,甚至可将平面角色图像转换为可 3D 打印的模型。 应用场景:虚拟角色服装设计迁移到真实照片、为动画角色添加写实服装、微调权重生成独特服装设计。 详细介绍及教程: GitHub: 在选择适合的 AI 大模型 API 服务时,需要考虑以下因素: 对于像开发 AI Share Card 插件这类情况,如果将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能,那么对模型的要求就不会过高。 选型要求包括:较长的上下文窗口,因为内容总结类任务需要较大的上下文长度;响应速度要快、并发支持要高,以在多人使用插件时保持良好性能;免费或尽量低价,以减少模型 token 费用。例如,AI Share Card 选用的是 GLM4flash(截至 202412,长达 128k 的上下文窗口,完全免费的调用价格,200 RPM 高并发支持)。
2025-01-08
文生图 api
以下是关于文生图 API 的相关信息: 10 月 AI 行业大事记中,LiblibAI 开放了全新生图 API。 文生图的简易上手教程如下: 定主题:明确生成图片的主题、风格和要表达的信息。 选择 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 设置 VAE:通常选择 840000 即可。 CLIP 跳过层(Liblibai 中):设为 2。 Prompt 提示词:用英文写想要生成的内容,以单词和短语组合,用英文半角逗号隔开,无需考虑语法和长句。 负向提示词 Negative Prompt:同样用英文单词和短语组合,隔开方式相同,写明想要避免生成的内容。 采样方法:一般选 DPM++2M Karras 较多,也可参考模型作者推荐的采样器。 采样次数/迭代步数:选 DPM++2M Karras 时,通常在 30 40 之间,过多意义不大且慢,过少出图效果差。 尺寸:根据个人喜好和需求选择。 生成批次(Liblibai 中):默认 1 批。 对于 ControlNet 和局部重绘,可后续再学习。
2025-01-07
如何系统学习API知识
系统学习 API 知识可以从以下几个方面入手: 1. 首先,要对 API 的概念有清晰的理解。API 就像是一个信差,它接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 2. 系统地了解和学习 API 相关的知识。 3. 去网上寻找可以用的 API 来练习。 4. 发掘 GPT Action 更多的潜力。 5. 构建自己的知识体系。可以通过后续看到的不同的教程和资料,识别这些知识之间的共性和逻辑关系,然后继续深化对这个主题的理解。 6. 对于一些不熟悉的 API,需要在 Prompt 里告诉它要怎样使用。 7. 最后提炼一下 Action 的工作流:首先,想一下您想要做一个什么样的 GPT,以及是否需要外部数据(这两个谁先谁后不重要);然后,去您需要的外部数据寻找 API 文档,或者基于您的需求,自己开发一个 API,寻找市面上可以直接用的 Action;最后,基于 API 文档,编写 Action 里的 Schema,和 Prompt(如何处理取回来的信息)。 同时,在使用 API 时还需要注意以下几点: 1. 对于文本补全(Text completion),该 API 能够理解文本的上下文并以不同方式重新表述它。 2. 限制 API 制造答案可能性的方法有:为 API 提供基础事实信息;使用较低概率并告诉 API 如何说“我不知道”。 3. 对于涉及理解或生成代码等任务,建议使用 Codex 模型处理。
2025-01-07
API是什么意思
API 就像是一个信差,它接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 以搜索“奥本海默”电影为例,在这个过程中,通过特定的网址(如 https://www.themoviedb.org/search?query=奥本海默 ),其中域名(www.themoviedb.org)指定了网站的位置,路径(/search)指定了特定页面的位置,而 query(奥本海默)则是查询参数。 在 GPT 中,它可以通过预先配置的 Action 里的 TMDB API 获取电影相关的专有信息。当您询问“奥本海默”这部电影讲了什么时,GPT 会识别您的意图,使用 Action 去 The Movie DB 寻找相关数据,处理并返回最终结果。 配置一个 Action 通常需要:Schema(相当于操作手册,告诉它可以去哪、干什么、需要准备什么)、Available actions(可用行动)、Authentication(认证)、Privacy policy(隐私政策)。但 Schema 的结构可能涉及前端工程师相关领域的知识。 如果您对 Action 很感兴趣,可以从系统学习 API 相关知识、寻找可用的 API 练习、发掘 GPT Action 更多潜力等方向继续深入。
2025-01-07
通过 API 调用大模型
以下是通过 API 调用大模型的相关步骤: 1. 创建大模型问答应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布。 2. 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件:需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 4. 本地部署教学(node.js)小白推荐: 申请大模型的 API 接口: silicon 硅基接口:官方提供的接入 API 的教学文档。以平时使用的 silicon 接口为例,有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用。另赠送 14 元体验金,有效期未知,是个人认为 API 接口最方便最实惠的接口了。silicon 注册和使用地址:邀请码:ESTKPm3J(谢谢支持)。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥。单击密钥即可完成 API 密钥的复制。silicon 支持多种大模型,也支持文生图、图生图、文生视频,可自行探索。这一步得到 silicon 的密钥即可,我们可以调用千问 2.5 的这个模型,满足日常对话完全没有问题,并且是免费调用的。 智普 GLM4 接口:正在 BigModel.cn 上用智谱 API 打造新一代应用服务,通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利,期待和您一起在 BigModel 上探索 AGI 时代的应用;链接:https://www.bigmodel.cn/invite?icode=xxcbnybpRLOsZGMNOkqaLnHEaazDlIZGj9HxftzTbt4%3D。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 APIkey。这一步做的是注册 silicon 和智普 GLM 的大模型账号,申请 API 密钥,保存密钥,等下配置需要填写。密钥一定要保管好不能公开,否则后果很严重。
2025-01-06
通过 API 调用大模型
以下是通过 API 调用大模型的相关步骤: 1. 创建大模型问答应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布。 2. 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 4. 申请大模型的 API 接口(以 silicon 硅基接口为例): 官方提供的接入 API 的教学文档。 以平时使用的 silicon 接口为例,有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用。另赠送 14 元体验金,有效期未知,是个人认为 API 接口最方便最实惠的接口了。 silicon 注册和使用地址: 邀请码:ESTKPm3J(谢谢支持) 注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥。 单击密钥即可完成 API 密钥的复制。 silicon 支持多种大模型,也支持文生图、图生图、文生视频,可自行探索。 这一步得到 silicon 的密钥即可,我们可以调用千问 2.5 的这个模型,满足日常对话完全没有问题,并且是免费调用的。 5. 申请大模型的 API 接口(以智普 GLM4 接口为例): 正在 BigModel.cn 上用智谱 API 打造新一代应用服务,通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利,期待和您一起在 BigModel 上探索 AGI 时代的应用;链接:https://www.bigmodel.cn/invite?icode=xxcbnybpRLOsZGMNOkqaLnHEaazDlIZGj9HxftzTbt4%3D 进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API。 鼠标移至密钥上方,单击复制即可得到智普的 APIkey。 这一步做的是注册 silicon 和智普 GLM 的大模型账号,申请 API 密钥,保存密钥,等下配置需要填写。 密钥一定要保管好不能公开,否则后果很严重。
2025-01-06
数字人
数字人是运用数字技术创造出来的人,虽现阶段不能如科幻作品中的人型机器人般高度智能,但已在各类生活场景中常见,且随 AI 技术发展迎来应用爆发。目前业界尚无准确定义,一般按技术栈不同分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视行业及直播带货,表现质量与手动建模精细度及动捕设备精密程度直接相关,不过视觉算法进步使无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息实现不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,能创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等。 2. Synthesia:AI 视频制作平台,可创建虚拟角色并进行语音和口型同步,支持多种语言,用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音并合成逼真说话视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。使用这些工具时,请遵守相关使用条款和隐私政策,注意生成内容的版权和伦理责任。 以下是一些包含数字人的节目单示例: 1. 节目“猜真人”:魔术互动类表演,2 个、8 个数字分身,分辨哪个是真正的我,需求技术为 AI 数字人。 2. 节目“亲情的应用场景(逝者)”:女儿打扫房间扫到去世父亲的二维码再次对话,涉及 AI 分身的积累准备。 3. 节目“AI 转绘”:经典电影混剪,需求包括短片素材、AI 转绘、Lora。 4. 节目“AI 贺岁”:晚会中场致谢,需求有共创团队记录、大家的感谢、新年祝福。 5. 节目“打工人共情”:有关 35 岁可能被开除等话题,需求包括 AI 素材、共情脚本、炫技视频剪辑。
2025-01-09
我想知道关于数字员工的一些落地方案
以下是关于数字员工的一些落地方案: 易观的报告《2024 年 AI 加速数字员工智能化落地——中国数字员工市场发展及企业数字员工落地建议报告》探讨了数字员工的定义、价值、分类,并预测了发展趋势。报告指出,数字员工能提升企业运营效率、降低成本、保障工作质量与稳定性。其发展趋势包括智能水平提升、融入工作流程、成为企业核心资产、开发与运营平台的在线化与开放化、市场的业态多样化、企业专业数据的深度洞察与策略制定、组织能力的新要求、群体智能与组织孪生的纵深发展等。 实战课程方面,提供了一比一数字人分身的定制体验,能让您熟练使用 10 多种热门数字人工具,掌握数字人定制、唇形同步、声音克隆、视频翻译、AI 换脸等技术,了解数字人商业应用场景及行业现状,将数字人融入工作流,完美匹配场景和工具,还能获得自学路径,课程后能持续学习并完成落地。并且搭建了交流群,方便解决课程问题和与其他同学讨论学习心得。 在技术实现上,算法驱动的数字人涉及 ASR 语音识别(如 openai 的 whisper、wenet、speech_recognition 等)、AI Agent(大模型包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等,Agent 部分可使用 LangChain 的模块自定义)、TTS(如微软的 edgetts、VITS、sovitssvc 等)。人物建模模型可以通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型)实现。但这种简单的构建方式还存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答等。
2025-01-08
数字人AI工具
以下是一些制作数字人的工具: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色。它运用深度学习算法生成高质量的肖像和角色模型,适用于游戏、电影和虚拟现实等领域。 2. Synthesia:这是一个 AI 视频制作平台,允许用户创建虚拟角色并实现语音和口型同步。支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:这是一家提供 AI 拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后合成逼真的会开口说话的视频。 此外,还有适合小白用户的开源数字人工具,其特点是一键安装包,无需配置环境,简单易用。功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。系统兼容 Windows、Linux、macOS,模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用步骤为下载 8G+3G 语音模型包,启动模型即可。相关链接:GitHub: 请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。在使用时,请确保遵守相关使用条款和隐私政策,并注意对生成内容的版权和伦理责任。更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。
2025-01-07
我需要找一个帮我生成数字人口播视频的AI工具
以下为您推荐一些可以生成数字人口播视频的 AI 工具: 1. 【TecCreative】 只需输入口播文案,选择期望生成的数字人形象及目标语言,即可生成数字人口播视频。操作指引:输入口播文案——选择目标语言——选择数字人角色——选择输出类型——点击开始生成。 支持多场景数字人口播配音,操作指引:输入口播文案——选择数字人角色和场景——选择输出类型——点击开始生成。 支持音频驱动多场景数字人,操作指引:上传音频链接——选择数字人角色和场景——选择输出类型——点击开始生成。 2. XiaoHu.AI 推荐的开源且适合小白用户的数字人工具 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G+3G 语音模型包,启动模型即可。 GitHub: 官网:
2025-01-07
怎样制作数字人
以下是制作数字人的方法和相关工具: 方法: 在剪映中生成数字人: 在剪映右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择后软件会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,软件会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,之后可点击预览查看效果。 增加背景图片:删除先前导入的文本内容,点击左上角“媒体”菜单并点击“导入”按钮选择本地图片上传,将图片添加到视频轨道上(会覆盖数字人),拖动轨道最右侧竖线使其与视频对齐,选中背景图片轨道,在显示区域拖动图片角将其放大到合适尺寸,并将数字人拖动到合适位置。 增加字幕:点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。完成后点击右上角“导出”按钮导出视频备用。 工具: HeyGen:AI 驱动的平台,可创建逼真的数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入要说的内容,平台的 AI 语音机器人将自动转换成语音,合成逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化,使用时请遵守相关使用条款和隐私政策,并注意对生成内容的版权和伦理责任。
2025-01-07
数字人最强项目
以下是关于数字人的一些项目信息: Digen AI:数字人克隆新选择,具有强大的动态和静态同步能力,支持 20 种语言,是 Heygen 的强有力竞争对手。体验地址:http://digen.ai 。 开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择 live2d 作为数字人躯壳,其驱动方式相比 AI 生成式更可控和自然,相比虚幻引擎更轻量和简单,卡通二次元形象接受度更高。关于 live2d 的 SDK 驱动方式可参考官方示例:https://github.com/Live2D 。
2025-01-05