Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想组织一个团队,完成属于自己的一套数字人制作技术

Answer

以下是组织一个团队完成属于自己的一套数字人制作技术的相关内容:

方案一:剪映数字人“个性化“—无限免费私模数字人

  1. 准备谷歌账号(可在淘宝或“有号”购买)。
  2. 第一步:打开谷歌浏览器,点击链接https://github.com/facefusion/facefusion-colab 并点击 open colab 进入程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”,无需安装和付费。点击红框对应的 URL 打开操作界面。
  3. 第二步:点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”生成。
  4. 第三步:等待专属数字人视频出炉。

方案二:借助开源社区力量构建高质量的 AI 数字人

  1. 推荐借助开源社区的像 dify、fastgpt 等成熟的高质量 AI 编排框架,它们有大量开源工作者维护,集成各种主流模型供应商、工具及算法实现等。
  2. 可通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。
    • 在开源项目中,使用 dify 框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,实现相对复杂功能,如知识库搭建、工具使用等,无需编码和重新部署工作。
    • Dify 的 API 暴露了 audio-to-text 和 text-to-audio 两个接口,基于此可将数字人的语音识别和语音生成都交由 Dify 控制,低门槛做出高度定制化的数字人。具体部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。
    • 若有更高度定制的模型,也可在 Dify 中接入 XInference 等模型管理平台部署自己的模型。
    • 数字人 GUI 工程中保留了 LLM、ASR、TTS、Agent 等多个模块,能保持更好的扩展。

注意事项:

  1. 使用 Dify 接口时,必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。
  2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,可自行选择方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可根据个人喜好添加。

制作数字人的工具:

  1. HeyGen:AI 驱动的平台,可创建逼真的数字人脸和角色,适用于游戏、电影和虚拟现实等应用。
  2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。
  3. D-ID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后合成逼真的会开口说话的视频。

更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化,使用时请遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。

Content generated by AI large model, please carefully verify (powered by aily)

References

方案:剪映数字人“个性化“—无限免费私模数字人

尽管剪映已经有很多公模数字人,但是从抖音上大火的数字人账号上看,私模数字人更受欢迎所以这里我将教大家用AI换脸软件来完成最后一步。📍注意:需要谷歌账号(淘宝或者在我们账号解决平台“[有号](https://www.learnprompt.pro/aiMarket)”就可以直接购买)1.第一步打开谷歌浏览器,点击链接https://github.com/facefusion/facefusion-colab并点击open colab就进到程序主要运行界面.在右上角点击“代码执行程序”选择“全部运行”就行,无需安装,无需付费。点击红框对应的URL就会打开操作界面2.第二步,点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”就能生成!反复调试后给大家选出了最佳参数!1.第三步:等着自己专属的数字人视频出炉!有关数字人使用上的问题,欢迎在底部评论区留言,一起交流~同时如果对数字人课程感兴趣的话,欢迎查看通往AGI之路X AI沃茨的《克隆你自己》课程!📌课程内容:[实战课程:数字人课程](https://waytoagi.feishu.cn/wiki/JOWjwM0qfi2rYVkUIwychk9MnSh)🎉在线观看第一节:https://www.bilibili.com/video/BV1yw411E7Rt/?spm_id_from=333.999.0.0🌍:aiwarts101

AI 数字人-定义数字世界中的你

上述种种,如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此我们推荐借助开源社区的力量,现在开源社区已经有了像dify、fastgpt等等成熟的高质量AI编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了dify的框架,利用其编排和可视化交互任意修改流程,构造不同的AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时Dify的API暴露了audio-to-text和text-to-audio两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由Dify控制,从而低门槛做出来自己高度定制化的数字人(如下图),具体的部署过程参考B站视频:https://www.bilibili.com/video/BV1kZWvesE25。如果有更加高度定制的模型,也可以在Dify中接入XInference等模型管理平台,然后部署自己的模型。此外,数字人GUI工程中仍然保留了LLM、ASR、TTS、Agent等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加Geek的Agent实现也可以选择直接后端编码扩展实现。上述Dify接口使用注意事项:1.使必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。2.只有接入了支持TTS和SPEECH2TEXT的模型供应商,才会在功能板块中展示出来,Dify的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。

问:有哪些制作数字人的工具

制作数字人(Digital Human)的工具主要是指那些能够创建虚拟角色、虚拟形象或者虚拟代言人的软件和技术。以下是几个可以用来制作数字人的工具:1.HeyGen:HeyGen是一个AI驱动的平台,可以创建逼真的数字人脸和角色。它使用深度学习算法来生成高质量的肖像和角色模型,适用于游戏、电影和虚拟现实等应用。2.Synthesia:Synthesia是一个AI视频制作平台,允许用户创建虚拟角色并进行语音和口型同步。它支持多种语言,并可以用于教育视频、营销内容和虚拟助手等场景。3.D-ID:D-ID是一家提供AI拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台提供的AI语音机器人将自动转换成语音,然后就能合成一段非常逼真的会开口说话的视频。更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42请注意,这些工具的具体功能和可用性可能会随着时间和技术的发展而变化。在使用这些工具时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。内容由AI大模型生成,请仔细甄别。类似问题:对口型的软件有哪些?

Others are asking
🚀接着上期SOP+AI:打造职场高效能人士的秘密武器的分享,今天继续聊聊SOP+AI的应用,🎯今天的主题是“怎样利用AI节约10倍内容创作时间?”📚最近跟团队有开始运营小红书账号,就想着先给自己打造点顺手的工具,于是乎「小红书文案专家」就出生啦~🎉[heading1]一、先介绍下我们小Bot[content]🛺BOT名称:小红书文案专家功能价值:见过多个爆款文案长啥样,只需输入一个网页链接或视频链接,就能生成对应的小红书文案,可以辅助创作者生成可以一键复制发布的初稿,提供创意和内容,1
以下是关于“SOP+AI”的相关内容: 怎样利用 AI 节约 10 倍内容创作时间? 最近团队开始运营小红书账号,于是打造了“小红书文案专家”。 BOT 名称:小红书文案专家 功能价值:见过多个爆款文案,输入网页或视频链接就能生成对应的小红书文案,辅助创作者生成可一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人写初稿并生成配图。 实现思路:为自己和团队设计工作流,让 AI 按运营思路和流程工作。 一期产品功能: 1. 提取任何链接中的标题和内容。 2. 按小红书平台文案风格重新整理内容。 3. 加入 emoji 表情包,使文案更有活力。 4. 为文案配图片。 二期计划功能:持续优化升级,增加全网搜索热点功能,提炼热点新闻或事件关键信息,结合用户想要生成的内容方向输出文案和配图。 SOP+AI:打造职场高效能人士的秘密武器 案例分享:X 公司客服团队引入 SOP 和 AI 助手后,工作效率显著提升。引入 SOP 前,客服工作流程混乱,效率低下,客户满意度不高。引入 SOP 标准化操作后,效率提高。进一步引入 AI 助手,自动回复常见问题、处理简单请求,减少客服工作量,还能及时发现问题帮助优化。结果客服团队工作效率提升 30%以上,客户满意度显著提高。SOP 能提升效率、减少失误、促进协作,借助 AI 助手,SOP 制定和优化更高效智能。
2024-12-20
怎么加入coze 通往AGI之路 团队
要加入 Coze 通往 AGI 之路团队,您可以按照以下步骤进行: 1. 5 月 7 号: 创建 https://www.coze.com 账号。 创建 https://www.coze.cn 账号。 加入共学的 team(看第三列备注)。 有精力的话,可以提前阅读:。 尝试创建自己的第一个 Bot,用来免费使用 GPT4(海外版本)。 Click the link to join my team WaytoAGI on the Coze Bot Platform 👉🏻https://www.coze.com/invite/8UrPdX0vuusXq5H6dF4P(海外版本)。 coze.cn 👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY(国内版本)。 2. 5 月 10 号:罗文认领一个插件制作插件说明,可参考。 PS:上述两个作业在 5 月 8 号分享结束之后就可以上手进行了,5 月 9 号会针对工作流和多 Agent 模式进行进一步的讲解。大家制作的 Bot 都可以在飞书群中进行投稿,然后会有专门的同学记录到 Bot 收集板。 此外,共学已结束,您也可以自行查看教程学习,比如课程表。欢迎邀请您加入 Coze 扣子团队 AI Bot:通往 AGI 之路。可以看到大家历史捏的 bot:coze.cn 👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY 。 第一期:COZE 的搭建,活动起源是之前在社区里搞了一期,大家反馈都不错,希望有更多一起学习的机会。最近对于 agent 搭建的呼声很大,刚好有几个对 coze 很熟悉的小伙伴出了一些教程,于是有了这一期的主题共学快闪。大家可以先进群,邀请您加入我的 Coze 扣子团 AI Bot:通往 AGI 之路。coze.com 👉🏻https://www.coze.com/invite/8UrPdX0vuusXq5H6dF4P ,coze.cn 👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY 。活动的方式包括自学(这个活动希望通过文字资料+直播分享的方式带领大家了解 Coze 这款工具,但是主要还是要靠自学)、写作业(会留一些作业,帮助大家更好复盘看看有没有吸收知识点。看十遍不如实践一遍)、互助(在飞书群大家有问题可以互助)、交流(找一些 Coze 的玩家跟大家视频会议交流自己的入门和进阶心得)。
2024-12-19
coze 团队怎么加入
要加入 Coze 团队,您可以按照以下步骤进行: 1. 5 月 7 号: 创建 https://www.coze.com 账号。 创建 https://www.coze.cn 账号。 加入共学的 team(看第三列备注)。 有精力的话,可以提前阅读:。 尝试创建自己的第一个 Bot,用来免费使用 GPT4(海外版本),Click the link to join my team WaytoAGI on the Coze Bot Platform 👉🏻https://www.coze.com/invite/8UrPdX0vuusXq5H6dF4P ;国内版本,coze.cn 👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY 。 2. 5 月 10 号,罗文认领一个插件制作插件说明,可参考。 PS:上述两个作业在 5 月 8 号分享结束之后就可以上手进行了,5 月 9 号会针对工作流和多 Agent 模式进行进一步的讲解。大家制作的 Bot 都可以在飞书群中进行投稿,然后会有专门的同学记录到 Bot 收集板。 使用 Coze IDE 创建插件的操作步骤: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入插件页面,或者在某一 Bot 的编排页面,找到插件区域并单击+图标。 4. 单击创建插件。 5. 在新建插件对话框,根据以下信息完成配置并单击确认: 插件图标:(可选)单击默认图标后,您可以上传本地图片文件作为新的图标。 插件名称:自定义插件名称,用于标识当前插件。建议输入清晰易理解的名称,便于大语言模型搜索与使用插件。 插件描述:插件的描述信息,一般用于记录当前插件的用途。 插件工具创建方式:选择在 Coze IDE 中创建。 IDE 运行时:选择 Node.js 或者 Python3。 6. 在插件详情页,单击在 IDE 中创建工具。 7. 在弹出的创建工具对话框,设置工具名称和介绍,以明确工具的用途,并单击确定。工具名称和介绍越清晰,大语言模型就越能理解并使用它。创建后,您将跳转到 Coze IDE 页面进行编码。 8. (可选)在 IDE 左上角工具列表区域,单击+图标,向插件添加更多工具。您还可以通过单击列表内某一工具的设置图标,来编辑、删除或重置代码。 9. (可选)在 IDE 左下角依赖包区域,管理依赖包,所有工具共用该依赖列表。 【共学最全版本】微信机器人共学教程第二天教程内容: 1. 二、修改配置:主要更改的是标黄的四行,可以直接清空原文件配置,把以下配置粘贴进您的 config.json 文件中。 2. 三、获取 key 和 id: 进入官网:https://www.coze.cn/home 。 欢迎邀请您加入 Coze 扣子团队 AI Bot:通往 AGI 之路。可以看到大家历史捏的 bot,coze.cn:👉🏻https://www.coze.cn/invite/EpD2Ud0bdPcvutscWStY 。 获取 key:获取到的这个令牌,就是"coze_api_key",像下方一样填入即可。"coze_api_key":"pat_diajdkasjdlksajdlksajdasdjlkasjdlas" 。 获取 bot id:把 bot_id 填入:"coze_bot_id":"86787989080" 。 大家可以一起分享提示词: 。 提示词案例一、苏苏;案例二、老王 。 历史资料参考: 。 。
2024-12-19
我是一个教育机构,我想使用ai代替我的家教老师团队,对学生进行1v1的辅导,包括:根据学生当天学习的课程出题,定时监督并整理错题,有什么ai工具,可以帮助我
目前在市场上,还没有能够完全替代家教老师团队进行 1v1 辅导,包括根据学生当天学习课程出题、定时监督并整理错题等全方位功能的单一 AI 工具。但您可以考虑结合使用以下几种 AI 相关的技术和工具来部分实现您的需求: 1. 智能学习管理系统:这类系统可以根据学生的学习进度和表现生成一些练习题,但可能无法完全针对当天学习的课程精准出题。 2. 自然语言处理工具:帮助分析学生的学习情况和问题,为后续的辅导提供一定的参考。 需要注意的是,AI 工具在教育中的应用仍处于不断发展和完善的阶段,不能完全替代人类教师的情感支持、个性化引导和灵活应变能力。
2024-11-18
我是一个教育机构,我想使用ai代替我的家教老师团队,对学生进行1v1的辅导,包括:根据学生当天学习的课程出题,定时监督并整理错题
目前的情况来看,使用 AI 代替家教老师团队进行 1v1 辅导,包括出题、监督和整理错题等工作,虽然具有一定的可行性,但也面临一些挑战。 从出题方面,AI 可以根据学生当天学习的课程内容,利用其强大的数据分析和算法能力生成相关题目。但需要确保题目质量和针对性,能够准确覆盖重点知识点,并适应学生的学习水平。 在监督方面,AI 可以通过设定时间提醒等方式,督促学生按时完成任务。然而,它可能无法像人类教师那样敏锐地察觉学生的情绪和学习状态变化,及时给予鼓励和支持。 对于整理错题,AI 能够快速分类和分析错题,但在解释错题原因和提供个性化的学习建议上,可能不如人类教师那么深入和灵活。 总之,虽然 AI 可以在一定程度上辅助这些工作,但完全替代家教老师团队可能还不太成熟,或许可以将 AI 与人类教师相结合,以达到更好的辅导效果。
2024-11-18
ChatGLM开发者团队介绍
ChatGLM 是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关信息如下: 地址: 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 此外,基于 ChatGLM 还有在垂直领域微调的模型,如医疗领域的 MedChatGLM,其地址为: 。
2024-10-30
用AI制作视频
将小说用 AI 制作成视频的流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问以下工具网址获取最新信息和使用指南: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 在 Adobe Firefly 的 Advanced 部分,您可以使用 Seed 选项添加种子编号(https://helpx.adobe.com/firefly/generatevideo/generatevideoclips/generatevideofaq.htmlwhatisaseed),以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。然后选择 Generate(生成)。
2025-01-22
制作ai视频都需要用到哪些工具
制作 AI 视频通常需要用到以下工具: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):适用于创建小说中的场景和角色图像的 AI 图像生成工具。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,能生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 此外,制作 AI 视频还需要考虑故事的来源和剧本写作。故事来源可以是原创(如个人或周围人的经历、梦境、想象的故事等),也可以是改编(如经典 IP、名著、新闻、二创等)。剧本写作方面,虽然有一定门槛,但可以从自身或朋友的经历改编入手,多与他人讨论并不断实践总结。在生成视频画面时,可能需要大量抽卡来获取合适的画面。比如在科幻片、战争片、奇幻片等不同类型的视频中,通过不同的工具生成相应的画面。
2025-01-21
怎样学习AI制作短视频
以下是学习 AI 制作短视频的相关内容: 1. 制作步骤: 剧本创作:可以从原创(如自身或周围人的经历、做过的梦、想象的故事等)和改编(如经典 IP、名著、新闻、二创等)两个路径获取灵感。 分镜脚本创作 角色设计:需保持角色的一致性,并增加个性化特性。 分镜图片制作:生成一张合适的图片就直接开始进行对应动画镜头的生成。 动画制作:主要使用了 pixverse、pika、runway 三种视频生成工具。 配音和配乐 2. 注意事项: 编剧方面,虽然有剧作理论和模板,但不能死板套用,应多实践、总结经验,从简单的短片创作入手,可从自身或朋友经历改编,或对短篇故事进行改编,多与他人讨论故事。 不论使用镜头拍摄还是 AI 工具生成,都脱离不了影视制作的基础逻辑。 短片以短故事片为主,后续会讨论广告片等类型。 相关原文链接:
2025-01-21
ai制作anki卡
以下是关于 AI 制作 Anki 卡的相关内容: AI 漫画 Anifusion 工具教程 Anifusion 是一款基于人工智能的在线工具,旨在帮助用户轻松创建专业质量的漫画和动漫作品。即使没有绘画技能,用户只需输入文本描述,Anifusion 的 AI 就能将其转化为完整的漫画页面或动漫图像。 主要功能: 1. AI 文本生成漫画:用户输入描述性提示,AI 会根据文本生成相应的漫画页面或面板。 2. 直观的布局工具:提供预设模板,用户也可自定义漫画布局,设计独特的面板结构。 3. 强大的画布编辑器:在浏览器中直接优化和完善 AI 生成的艺术作品,调整角色姿势、面部细节等。 4. 多种 AI 模型支持:高级用户可访问多种 LoRA 模型,实现不同的艺术风格和效果。 5. 商业使用权:用户对在平台上创作的所有作品拥有完整的商业使用权,可自由用于商业目的。 使用案例: 1. 独立漫画创作:有抱负的漫画艺术家无需高级绘画技能即可将他们的故事变为现实。 2. 快速原型设计:专业艺术家可以在详细插图之前快速可视化故事概念和布局。 3. 教育内容:教师和教育工作者可以为课程和演示创建引人入胜的视觉内容。 4. 营销材料:企业可以制作动漫风格的促销漫画或用于活动的分镜脚本。 5. 粉丝艺术和同人志:粉丝可以基于他们最喜欢的动漫和漫画系列创作衍生作品。 优点: 1. 非艺术家也可轻松进行漫画创作。 2. 基于浏览器的全方位解决方案,无需安装额外软件。 3. 快速迭代和原型设计能力。 4. 创作的全部商业权利。 如何利用 AI 的方式批量制作单词卡片 1. 提示词编写测试 完整提示词:最外围的核心是生成符合要求的单词卡内容,并按照对应位置填入 Excel 文件中。首先给出基本示例,作为 GPT 完成任务的核心依托,然后根据不同生成内容限定规则。 测试结果:一起输入五个单词可同时解析,效果有的稍差,大体格式符合要求。关于第二部分,虽改变了最初设定,但仍可通过复制粘贴使用。 2. 批量产出:上传压缩文件,上传成功后点击完成套版,即可获得符合要求的单词卡片。
2025-01-20
有制作爆款短视频的ai提示词吗?
以下是一些制作爆款短视频的 AI 提示词相关内容: 1. 写脚本方面: 可以选择 Kimi、Claude、Chatgpt 等大模型,对于科学上网困难的小伙伴,可优先选择免费好用的 kimi(https://kimi.moonshot.cn/),有条件可选功能更强大的 chatgpt(https://chatgpt.com/),本作品用的是 Claude(https://claude.ai/new),Claude 在脚本创作方面有优势。 脚本提示词的结构是:我要做什么样的视频+视频要包含哪些关键的元素+对脚本的输出有什么要求。例如,要做 30 秒时长的广告宣传片脚本、做一个孩子们喜欢的儿童绘本脚本等;重点要把产品的特性或者想要的广告风格说出来,如奔驰高端商务、豪华舒适的特性,苹果香脆多汁、红润饱满的特点;按照一定的格式输出,推荐使用 Markdown 格式输出,方便后续操作。 2. 单镜头内容注意:要给 AI 确切的画面描述,杜绝不确切描述,如将“一个女生备考,用纳米 AI 定制模拟专题练习,最后成功上岸”改为“一个中年妇女辅导 12 岁的女儿作业,女孩看着妇女,妇女挠挠头,表情沉重。然后拿出手机对着桌子上的书拍照,然后放下手机,跟小姑娘说话,表情舒缓,欣慰,温柔。侧面镜头,镜头环绕到正面”。 3. 提示词网站分享: Learn Prompting https://learnprompting.org/docs/intro AI Short https://www.aishort.top/en/ AIPRM https://www.aiprm.com/prompts/ Prompt Library https://promptlibrary.org/
2025-01-20
我想按照我的医院制作logo 可我找不到我中意的制作软件
在 AI 领域中,有一些软件可以帮助您制作医院的 logo,比如 Adobe Illustrator ,它功能强大,常用于专业的图形设计。还有 Canva ,操作相对简单,提供了丰富的模板和设计元素。另外,Inkscape 也是一个免费开源的选择。您可以根据自己的需求和技能水平来挑选适合的软件。
2025-01-19
想开发一套针对小学生的AI寒假训练营,教一些简单的代码之类的 你可以给我推荐一些让小朋友体验的AI工具吗
目前针对小学生的 AI 工具,以下几种可能较为适合他们体验: 1. Scratch:这是一款图形化编程工具,通过拖拽积木块的方式就能创建程序,非常直观易懂,有助于培养孩子的逻辑思维和创造力。 2. Code.org:提供了丰富的编程课程和项目,包括简单的代码编写,界面友好,适合初学者。 3. Tynker:具有趣味性的编程学习平台,有很多小游戏和项目可以让孩子在玩中学习编程知识。 需要注意的是,在让小朋友使用这些工具时,要给予适当的指导和监督,确保他们能够正确理解和使用。
2025-01-11
我是一个有着20年logo设计经验的资深设计师,我想为一个心理精神科诊所设计一套VI,请推荐一个AI软件
目前在 VI 设计方面,有一些常用的 AI 软件,比如 Adobe Illustrator ,它具有强大的绘图和编辑功能,能够满足您对高质量图形设计的需求;还有 Sketch ,其界面简洁,操作相对便捷。不过,具体选择哪款软件还需根据您的个人使用习惯和具体设计要求来决定。
2024-11-18
我有126个docs文件,我需要用同一套提示词,对这些文件进行总结,有什么工具可以做到
以下是一些可能用于对 126 个 docs 文件进行总结的工具和方法: 1. 可以考虑使用由杨志磊开发的律师的文本总结助手。其说明为对客户提供的文件或文本进行总结,具有明确的角色设定、目标和约束条件。链接地址为:https://waytoagi.feishu.cn/wiki/HvJGwlMFhidzZukPsoKcnuXlnKe 。 2. 在 Stable Diffusion 中,Embedding 功能可以将很多提示词打包到一个文件里。例如常见的负向提示词 Embedding,如 EasyNegative,官方推荐搭配二次元模型使用,能在一定程度上优化生成效果。但需注意,对于一些复杂问题如 AI 绘图中的手部问题,可能无法完全解决。
2024-10-22
如何利用AI协助设计一套用户调研的问题
以下是利用 AI 协助设计用户调研问题的一些方式和相关案例: 1. 帮助设计问卷:向 AI 询问可以从哪些方面提问、提什么问题,采纳率为 25%。 2. 润色问卷文案:采纳率达 75%。 3. 对问卷反馈数据(单条数据和整理数据)进行评价:采纳率为 90%。 相关案例: 1. AI+教育方面,如医疗领域中用于生成漂亮图片的 AI 也可以帮助科学家研究并设计新的蛋白质。 2. 有通过特定 prompt ,2 小时帮同学完成 3 篇调研报告的案例。 3. 利用 ChatGPT 做调研的案例。 在设计过程中,应注意以下几点: 1. 使用用户熟悉的词语、短语和概念,而非内部术语,遵循现实世界的惯例,使信息呈现自然和逻辑的顺序。 2. 像 Perplexity 一样选择容易理解的用词,采用对话式的文字。 3. 设计的控件要遵循现实世界的惯例并与期望的结果相对应,即自然映射,以构建直观的体验。 4. 确保用户能够理解单词的含义,不要假设自己对单词或概念的理解与用户匹配,通过用户研究揭示用户熟悉的术语和他们对重要概念的心智模型。
2024-08-30
开源项目数字人
以下是关于开源项目数字人的相关内容: 一、构建高质量的 AI 数字人 1. 构建数字人躯壳 建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。 开源数字人项目选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单。 卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。 2. 构建数字人灵魂 自建代码实现各模块开发工作量巨大,迭代难度高,对于个人开发者不现实。 推荐借助开源社区的力量,如 dify、fastgpt 等成熟的高质量 AI 编排框架,它们有大量开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等。 在开源项目中,使用了 dify 的框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于这两个接口就可以将数字人的语音识别和语音生成都交由 Dify 控制,从而低门槛做出自己高度定制化的数字人。具体的部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。 如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台,然后部署自己的模型。 数字人 GUI 工程中仍然保留了 LLM、ASR、TTS、Agent 等多个模块,能够保持更好的扩展。 上述 Dify 接口使用注意事项: 必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。 二、写在最后 数字人在未来肯定会有很多的应用场景,比如家庭中有数字人管家,全面接管智能家居或其他设备;学校中有数字人老师,孜孜不倦的为学生答疑解惑;商场里有数字人导购,为顾客提供指路、托管个人物品等悉心服务。 数字人在未来肯定还有很多的技术突破,比如可以将五感数据作为输入(例如声音、图像、气味、震动等等),将所有可以控制躯壳的参数也作为输入(例如躯壳骨骼节点,面部混合形状参数等);次世代的算法可以自我迭代升级,也可以拿到感官输入以及躯壳控制方法后,自行演化躯壳控制方式。 作者希望通过 Dify 搭建数字人的开源项目,给大家展现低门槛高度定制数字人的基本思路,但数字人的核心还是在于我们的 Agent,也就是数字人的灵魂,怎样在 Dify 上面去编排专属自己的数字人灵魂是值得大家自己亲自体验的。真诚的希望看到,随着数字人的多模态能力接入、智能化水平升级、模型互动控制更精确,用户在需要使用 AI 的能力时,AI 既可以给你提供高质量的信息,也能关注到你的情绪,给你一个大大的微笑,也许到了那时,数字世界也开始有了温度。
2025-01-22
我能否借助开源社区力量构建高质量的 AI 数字人
您可以借助开源社区力量构建高质量的 AI 数字人。 构建数字人的躯壳有多种方式: 1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,代表是 Live2D Cubism。 2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高,代表是 UE、Unity、虚幻引擎 MetaHuman 等,但个人学习在电脑配置和学习难度上有一定门槛。 3. AIGC:省去建模流程直接生成数字人的展示图片,但存在算法生成的数字人很难保持 ID 一致性、帧与帧连贯性差等弊端。如果对人物模型真实度要求不高,可以使用,典型项目有 wav2lip、videoretalking 等。AIGC 还有直接生成 2D/3D 引擎模型的方向,但仍在探索中。 构建数字人的灵魂需要注意以下几个工程关键点: 1. AI Agent:要让数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建都是挑战。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:由于算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。 4. 多元跨模态:不仅仅是语音交互,还可以通过添加摄像头数据获取数据,再通过系列 CV 算法做图像解析等。 5. 拟人化场景:正常和人交流时不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。 如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此推荐借助开源社区的力量,现在开源社区已经有了像 dify、fastgpt 等等成熟的高质量 AI 编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了 dify 的框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由 Dify 控制,从而低门槛做出来自己高度定制化的数字人。具体的部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台,然后部署自己的模型。此外,数字人 GUI 工程中仍然保留了 LLM、ASR、TTS、Agent 等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加 Geek 的 Agent 实现也可以选择直接后端编码扩展实现。 使用 Dify 接口需要注意: 1. 必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。
2025-01-21
方案一生成的数字人效果怎么样
生成数字人的效果因使用的工具和方法而异。以下是一些常见的情况: 在剪映中生成数字人: 打开“数字人”选项,选择免费且适合的形象,如“婉婉青春”,软件会播放其声音,可判断是否需要,点击“添加数字人”将其添加到视频中,剪映会根据提供的内容生成对应音视频并添加到轨道中。左下角会提示渲染完成时间,可点击预览按钮查看效果。 腾讯的 MimicMotion 项目: 效果显著优于阿里,支持面部特征和唇形同步,不仅用于跳舞视频,也可应用于数字人。其优化包括基于置信度的姿态引导机制确保视频连贯流畅、基于姿态置信度的区域损失放大技术减少图像扭曲变形、创新的渐进式融合策略实现任意长度视频生成。项目地址:https://github.com/tencent/MimicMotion 节点地址:https://github.com/AIFSH/ComfyUIMimicMotion 此外,还有适合小白用户的开源数字人工具,如: 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G+3G 语音模型包,启动模型即可。 GitHub: 官网:
2025-01-21
ai数字人怎么生成
生成 AI 数字人主要有以下步骤: 1. 在剪映中生成数字人: 打开剪映右侧窗口顶部的“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。 软件会播放数字人的声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,软件会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。 2. 增加背景图片: 删除先前导入的文本内容,因为视频音频已包含文字。 点击左上角“媒体”菜单并“导入”,选择本地图片上传,如一张书架图片,点击图片右下角加号添加到视频轨道(会覆盖数字人)。 拖动轨道最右侧竖线使图片与视频对齐,选中轨道,拖动图片角放大到合适尺寸,并将数字人拖动到合适位置。 3. 增加字幕: 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段形成字幕。 4. 算法驱动的数字人实现流程: 核心算法包括 ASR(语音识别),能将用户音频数据转化为文字,便于数字人理解和生成回应。 AI Agent(人工智能体)充当数字人大脑,可接入大语言模型,拥有记忆模块等使其更真实。 TTS(文字转语音)将数字人依靠 LLM 生成的文字输出转换为语音。 完成上述步骤后,点击右上角“导出”按钮导出视频备用。若希望数字人换脸,则需使用其他工具。
2025-01-20
数字人
数字人是运用数字技术创造出来的人,虽现阶段不能如科幻作品中的人型机器人般高度智能,但已在生活各场景中常见,且随 AI 技术发展迎来应用爆发。目前业界对其无准确定义,一般按技术栈分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视行业及直播带货,表现质量与手动建模精细度及动捕设备精密程度直接相关,不过视觉算法进步使无昂贵动捕设备时,通过摄像头捕捉人体骨骼和人脸关键点信息也能有不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,能创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等。 2. Synthesia:AI 视频制作平台,可创建虚拟角色并进行语音和口型同步,支持多种语言,用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音并合成逼真说话视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。使用这些工具时,请遵守相关使用条款和隐私政策,注意生成内容的版权和伦理责任。 以下是一些包含数字人的节目单示例: 1. 节目“猜真人”:魔术互动类表演,2 个、8 个数字分身,猜哪个是真正的我,需求技术为 AI 数字人。 2. 节目“亲情的应用场景(逝者)”:女儿打扫房间扫到去世父亲二维码再次对话,涉及 AI 分身积累准备。 3. 节目“AI 转绘”:经典电影混剪,涉及短片素材、AI 转绘、Lora 等。 4. 节目“AI 贺岁”:晚会中场致谢,包括共创团队记录、新年祝福等。 5. 节目“打工人共情”:涉及 AI 素材、共情脚本、炫技视频剪辑等。
2025-01-20
数字人带货怎么做
数字人带货的相关内容如下: 1. 数字人直播盈利方式: 直接卖数字人工具软件,分为实时驱动和非实时驱动两类。实时驱动价格一年 4 6 万往上,非实时驱动一个月 600 元,效果差且市场价格混乱。 提供数字人运营服务,按直播间成交额抽佣。 2. 数字人直播卖货适用品类和场景: 适用于不需要强展示的商品,如品牌食品饮料,不适用于服装,因衣服建模成本高。 适用于虚拟商品,如门票、优惠券等。 不适用于促销场景,涉及主播话术、套路和调动直播间氛围能力等。 电商直播分达播跟店播,数字人直播效果最好的是店播,数据基本能保持跟真人一样。 3. 数字人直播的壁垒和未来市场格局: 时间拉长,技术上没壁垒,但目前仍有技术门槛,如更真实的对口型、更低的响应延迟等。 不会一家独大,可能 4 5 家一线效果,大多二三线效果公司。 真正把客户服务好,能规模化扩张的公司更有价值。 有资源、有业务的大平台下场,可能会带来降维打击。 此外,还有关于数字人带货的具体操作案例: 1. 用 ChatGPT 生成短视频选题文案,表明身份、描述需求和回答要求,以美妆行业为例。 2. 用 ChatGPT 生产短视频文案,将需求与框架结合。 3. 生成虚拟数字人短视频: 打开网站 https://studio.did.com/editor 。 在右侧文字框输入 ChatGPT 生成的内容,选择想要的头像、不同的国家和声音。 点击右上角的 Create Video ,等待生成。生成后结合产品做讲解即可发布去做视频带货。 数字人的简介:数字人是运用数字技术创造出来的人,目前业界没有准确定义,一般根据技术栈不同分为真人驱动和算法驱动两类。真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业和直播带货,表现质量与手动建模精细程度及动捕设备精密程度直接相关,随着视觉算法进步,在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。
2025-01-19