Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

用什么软件可以生成个人ai数字人形象?

Answer

以下为您介绍可以生成个人 AI 数字人形象的软件及方法:

剪映 App 可以帮助您生成数字人形象。在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,比如“婉婉-青春”。选择数字人形象时,软件会播放其声音,您可判断是否需要,然后点击右下角的“添加数字人”,软件会根据之前提供的内容生成对应音视频并添加到当前视频中。左下角会提示渲染完成时间,之后可点击预览按钮查看效果。

生成数字人后,您还可以进行以下操作来完善视频:

  1. 增加背景图片:删除先前导入的文本内容,点击左上角的“媒体”菜单并点击“导入”按钮,选择本地图片上传,将图片添加到视频轨道上,通过拖拽轨道右侧竖线使其与视频长度对齐,再调整图片大小和数字人的位置。
  2. 增加字幕:点击文本-智能字幕-识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。

如果您希望数字人换成自己希望的面孔,可以使用 facefusion 软件。打开该软件,返回实例列表,点击自定义服务按钮,通过新的浏览器窗口访问其 UI 界面。上传准备好的图片和视频,在右侧可看到预览效果,点击下方的开始按钮执行换脸处理。处理完成后,在输出位置点击下载按钮导出换脸后的视频。

整个过程大约 10 分钟,制作数字人视频免费,数字人换脸约 0.8 元。

Content generated by AI large model, please carefully verify (powered by aily)

References

实战: 每个人都可以用10分钟轻松制作AI换脸、AI数字人视频的方法!

3.1生成数字人在剪映右侧窗口顶部,我们打开“数字人”选项,选取一位免费的、适合的数字人形象,这里我选择“婉婉-青春”。当你选择一个数字人形象时,软件会马上播放出该数字人的声音。你可以判断是否是你需要的,点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。剪映App将会根据之前提供的内容,来生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示你渲染何时完成。然后你可以点击预览按钮,查看生成的数字人效果。3.2增加背景图片接下来,可以直接删除先前导入的文本内容。这是因为视频中的音频中已经包含文字内容了。鼠标点击下方代表文字的轨道,或者点击软件中间文字内容,按删除键删去文字:为了让视频更美观,我们为视频增加背景图片。当然你可以增加多个背景图片,为简化演示,这里增加1张图片。点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传:我选择一张书架图片上传,然后像添加文字内容一样,点击图片右下角的加号,将这个图片添加到视频的轨道上(会覆盖数字人):

实战: 每个人都可以用10分钟轻松制作AI换脸、AI数字人视频的方法!

此时,书架图片就会在视频轨道的下面,添加一条新轨道:为了让图片在整个视频播放的时候都显示,可以点击这个轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐:此时,背景图片所在的轨道是选中状态。如果没选中,鼠标点击一下这个规定即可。在显示区域,拖动背景图的一个角,将图片放大到适合的尺寸,比如覆盖视频窗口。并将数字人拖动到合适的位置:3.3增加字幕点击文本-智能字幕-识别字幕,点击开始识别:软件会自动将文字智能分段并形成字幕:至此,数字人视频就完成了。点击右上角的“导出”按钮,导出视频以作备用。如果你希望数字换成自己希望的面孔,比如这个:就需要用另一个工具来进行换脸了。

实战: 每个人都可以用10分钟轻松制作AI换脸、AI数字人视频的方法!

打开facefusion软件,需要返回实例列表,点击自定义服务按钮,会打开一个新的浏览器窗口。这样,我们才能够通过web浏览器来访问facefusion提供的UI界面:在facefusion软件界面上(见上图),上传准备好的图片,视频后,在右侧可以看到预览效果。点击下方的开始按钮,执行换脸处理。执行完成后,在输出的位置,会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击它你可以导出变量后的视频到本地。最后来看看效果:通过剪映制作的数字人视频:1.变脸前的视频:1.变脸后的视频:本次GPU服务器的使用花费:总成本:1.时间:大约10分钟左右2.制作数字人视频:免费3.数字人换脸:约0.8元4.数字人换脸时长:经实际测试1分28秒的视频,总转换时间在200秒,下方是运行facefusion的终端反馈的信息:如上图所示,GPU服务器此次整体运行时长所需花费0.97元,facefusion软件运行其实只占服务器运行时长的一部分,所以换脸的成本应该在0.8元左右。

Others are asking
零基础学习ai
以下是为零基础学习 AI 提供的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 知识库提供了很多实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,还有一个案例供您参考:二师兄来自上海,是典型的 80 后,房地产行业从业二十年,计算机零基础。2024 年 2 月,他在七彩虹的售后群中,因老哥分享用 AI 绘画的心得,要了 SD 秋叶安装包,下载了教学视频,迈出了 AI 学习的第一步。之后他不断学习和实践,如在 3 月啃完 SD 的所有教程并开始炼丹,4 月与小伙伴探讨 AI 变现途径,5 月加入 Prompt battle 社群,开始 Midjourney 的学习。
2025-02-18
AI数据分析
以下是关于 AI 数据分析的相关内容: ChatGPT 助力数据分析: 本文重点介绍了 AI 与数据分析结合的应用,通过实际案例与相关技巧,描述了 ChatGPT 如何助力数据分析。 实现了两种方式支持多维数据分析: SQL 分析:分析平台自身使用情况,输入一句话可分析用户配置图表相关数据。用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验为 SELECT 类型后执行返回结果数据,再传给 GPT 分析,最后输出分析结论和建议并返回前端页面渲染图表。 个性化分析:平台支持上传数据,可提供数据信息辅助分析,前端解析文件后传给 GPT 分析,后续步骤与 SQL 分析一致。 分析完成后展示结果数据的图表和分析结论,图表支持折线图和柱状图可随意切换。 生成式 AI 季度数据报告 2024 月 1 3 月: 作者包括郎瀚威 Will、张蔚 WeitoAGI、江志桐 Clara 等。 报告涵盖总体流量概览、分类榜单、文字相关(个人生产力、营销、教育、社交)、创意相关(图像、视频)、音频大类、代码大类、Agent、B2B 垂类等方面。 涉及数据准备、分类标准图谱准备、赛道分析、竞争分析等内容。
2025-02-18
找一个能够生成音乐的AI。我给一个曲名(比如《生日快乐歌》),他就能给我生成不同风格的音乐供我下载。
以下为您推荐能够根据给定曲名生成不同风格音乐并供下载的 AI 工具: 1. Suno AI: 地址:https://www.suno.ai/ 简介:被誉为音乐界的 ChatGPT,能够根据简单提示创造出从歌词到人声和配器的完整音乐作品。 账号要求:需要拥有 Discord、谷歌或微软中的至少一个账号,并确保网络环境稳定。 订阅信息: 免费用户每天 50 积分,每首歌消耗 5 积分,每天可创作 10 首歌曲,每次点击生成两首歌曲。 Pro 用户每月 2500 点数(大约 500 首歌),按月每月 10 美元,按年每月 8 美元,每年 96 美元。 Premier 用户每月 10000 点数(大约 2000 首歌),按月每月 30 美元,按年每月 24 美元,每年 288 美元。 操作模式: 默认模式:包括关闭个性化、歌曲描述、乐器开关、模型选择 v3 等设置。 个性化模式:开启个性化定制,可填写歌词、曲风、标题等。 生成歌词:可使用大模型如 Kimi、GPT、文心一言等生成。 开始生成:填写好所需内容后点击 Create,等待 2 3 分钟即可。 下载:生成后可下载。 2. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。地址:https://www.udio.com/ 3. YuE:支持从歌词生成 5 分钟高质量音乐(含人声与伴奏),多语言支持(中、英、日、韩),覆盖多种音乐风格与专业声乐技术。详细介绍:https://www.xiaohu.ai/c/xiaohuai/yue5
2025-02-18
什么是aigc
AIGC(人工智能生成内容)是一种利用人工智能技术生成各种类型内容的应用方式。它能够通过机器学习和深度学习算法,根据输入的数据和指令生成符合特定要求的内容,在内容创作、广告、媒体等领域有着广泛的应用。 具体来说,AIGC 包括以下方面: 1. 文字生成:使用大型语言模型(如 GPT 系列模型)生成文章、故事、对话等内容。 2. 图像生成:使用 Stable Diffusion、DALLE 等模型生成艺术作品、照片等。 3. 视频生成:使用 Runway、KLING 等模型生成动画、短视频等。 AIGC 作为一种强大的技术,能赋能诸多领域,但也存在多重潜在的合规风险。目前,我国对 AIGC 的监管框架由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》等形成了共同监管的形势。 AIGC 主要分为语言文本生成、图像生成和音视频生成。语言文本生成利用马尔科夫链、RNN、LSTMs 和 Transformer 等模型生成文本,如 GPT4 和 Gemini Ultra。图像生成依赖于 GANs、VAEs 和 Stable Diffusion 等技术,应用于数据增强和艺术创作,代表项目有 Stable Diffusion 和 StyleGAN 2。音视频生成利用扩散模型、GANs 和 Video Diffusion 等,广泛应用于娱乐和语音生成,代表项目有 Sora 和 WaveNet。此外,AIGC 还可应用于音乐生成、游戏开发和医疗保健等领域,展现出广泛的应用前景。 例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等,都属于 AIGC 的应用。类似的名词缩写还有 UGC(普通用户生产),PGC(专业用户生产)等。能进行 AIGC 的产品项目也很多,能进行 AIGC 的媒介也很多,包括且不限于: 1. 语言文字类:OpenAI 的 GPT,Google 的 Bard,百度的文心一言,还有一种国内大佬下场要做的的 LLM 都是语言类的。 2. 语音声音类:Google 的 WaveNet,微软的 Deep Nerual Network,百度的 DeepSpeech 等,还有合成 AI 孙燕姿大火的开源模型 Sovits。 3. 图片美术类:早期有 GEN 等图片识别/生成技术,去年大热的扩散模型又带火了我们比较熟悉的、生成质量无敌的 Midjourney,先驱者谷歌的 Disco Diffusion,一直在排队测试的 OpenAI 的 Dalle·2,以及 stability ai 和 runaway 共同推出的 Stable Diffusion。
2025-02-18
多维表格AI接入分享课程有回放么
多维表格 AI 接入分享课程有回放。例如,在“1204|微信超级 AI 知识助手教学(上)—智谱共学营智能纪要”中提到直播有回放。在“飞书多维表格 AI 共学解锁更强大的豆包 2024 年 12 月 21 日”中,王大仙表示分享有回放,可顺着搭建流程使用。
2025-02-18
我的毕业论文是AIGC的陶寺遗址空间可视分析技术研究,请问有何思路
对于您的毕业论文主题“AIGC 的陶寺遗址空间可视分析技术研究”,以下是一些可能的思路供您参考: 首先,深入了解陶寺遗址的相关背景和特点,包括其历史、文化、地理等方面的信息,这将为后续的分析提供基础。 其次,研究 AIGC 技术在空间可视分析方面的应用现状和前沿成果,了解相关的算法、模型和工具。 然后,考虑如何收集和整理陶寺遗址的空间数据,例如通过实地测量、卫星图像、考古记录等方式获取数据,并对数据进行预处理和清洗。 接着,运用合适的 AIGC 技术和算法,对陶寺遗址的空间数据进行可视化呈现,例如创建三维模型、绘制地图、生成动态图像等,以直观展示遗址的空间特征和关系。 在可视化的基础上,进行深入的分析,例如探究遗址的布局规律、空间结构、功能分区等,挖掘潜在的历史和文化信息。 最后,对研究结果进行评估和验证,确保其准确性和可靠性,并提出进一步的改进和优化方向。 希望这些思路能对您有所帮助,祝您顺利完成毕业论文!
2025-02-18
哪个软件可以生成思维脑图
以下是一些可以生成思维脑图的软件: 1. GitMind:免费的跨平台思维导图软件,支持多种模式,可通过 AI 自动生成思维导图。 2. ProcessOn:国内的思维导图+AIGC 工具,能利用 AI 生成思维导图。 3. AmyMind:轻量级在线思维导图工具,无需注册登录,支持自动生成节点。 4. Xmind Copilot:Xmind 推出的基于 GPT 的思维导图助手,可一键拓展思路,生成文章大纲。 5. TreeMind:“AI 人工智能”思维导图工具,输入需求后由 AI 自动完成生成。 6. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能,有助于提升生产力。 总的来说,这些 AI 思维导图工具都能通过 AI 技术自动生成思维导图,提高制作效率,为知识工作者带来便利。 此外,过去 ChatGPT 无法生成思维导图,当处理复杂代码或长篇文章时,需利用 AI 提炼后再用思维导图软件转换,较为繁琐。现在有了 GPTs,可利用 Actions 调取第三方平台提供的 API 直接获取内容对应的思维导图。比如结合 Gapier 这个提供免费 Action 的第三方平台进行定制化,包含如何在 Action 中引入 Gapier 生成代码的思维导图,以及如何在 Action 中引入 Gapier 和 Webpilot 生成在线文档的思维导图。 在多智能体 AI 搜索引擎方案中,生成思维导图是其中的一个步骤。智能体能调用各种插件,除思维导图外,还有流程图、PPT 工具等,可根据工作需要选择。
2025-02-18
怎么让AI识别对话,并生成结构化数据存储到我的软件系统里
要让 AI 识别对话并生成结构化数据存储到软件系统里,可以参考以下方法: 1. 基于结构化数据来 RAG:如果原始数据本身就是结构化、标签化的,不必将这部分数据做向量化。结构化数据的特点是特征和属性明确,可用有限标签集描述,能用标准查询语言检索。以餐饮生活助手为例,流程包括用户提问、LLM 提取核心信息并形成标准查询、查询结构化数据、LLM 整合回复。 2. 利用 Coze 平台设计 AI 机器人:创建好 Bot 后,从“个人空间”入口找到机器人,进行“编排”设计。Coze 平台常用的概念和功能包括提示词(设定 Bot 身份和目标)、插件(通过 API 连接集成服务)、工作流(设计多步骤任务)、触发器(创建定时任务)、记忆库(保留对话细节,支持外部知识库)、变量(保存用户个人信息)、数据库(存储和管理结构化数据)、长期记忆(总结聊天对话内容)。设计 Bot 时要先确定目的,比如“AI 前线”Bot 的目的是作为 AI 学习助手,帮助职场专业人士提升在人工智能领域的知识和技能,并提供高效站内信息检索服务。 注:Coze 官方使用指南见链接:https://www.coze.cn/docs/guides/welcome ,遇到疑问也可查阅该指南。
2025-02-18
图片转视频说话 效果好 软件 有哪些
以下是一些能实现图片转视频说话且效果较好的软件: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 1. 点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。 2. 上传后效果如图所示,My Avatar处显示上传的照片。 3. 点开大图后,点击Create with AI Studio,进入数字人制作。 4. 写上视频文案并选择配音音色,也可以自行上传音频。 5. 最后点击Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 1. 点击上面的网址,点击右上角的Create vedio。 2. 选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 最后,点击Generate vedio就可以生成一段视频。 5. 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法: 1. 点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 4. Sadtalker: 由于涉及到视频的推理和转换,输出时间要远远大于AI绘图和sovits的声音推理,需要做好等待的准备。 最终生成的视频长度与音频一致,如果想制作一个长视频,最好是剪成小段,分别推理,然后合并。 使用方法: 1. 可以独立使用或者作为插件放入stablediffusion。 2. 视频教程:https://www.bilibili.com/video/BV1Dc411W7V6/?vd_source=35e62d366d8173e12669705f7aedd122 。 3. 对于编程、python、conda不熟的,建议使用整合包: 我用夸克网盘分享了「EZAIStarterv0.9.8.zip」,点击链接即可保存。链接:https://pan.quark.cn/s/1d5ca9f57f5c 。 视频地址:https://www.bilibili.com/video/BV1ga4y1u7Ep/?spm_id_from=333.337.searchcard.all.click&vd_source=35e62d366d8173e12669705f7aedd122 。 4. 具体步骤: 点我启动,在启动界面中,选择音频、图像口型同步的下载图标。 下载完毕后。 启动应用,等待。 会弹出一个独立的窗口(而不是默认浏览器)。 选择sadtalker同步器,分别导入图片和声音。 图片预处理方式中,crop只截取图片的头部,full就是保留整张照片,下面的勾选项已经有文字解释,自己可以试几次。 点击generate 。
2025-02-18
我是一个有23年软件系统开发和设计经验的架构师,但是对AI还没有系统化了解过,请问我该如何开始?如何在短时间内掌握AI的使用、原理以及二次开发?
以下是为您提供的在短时间内系统化学习 AI 的建议: 一、了解 AI 基本概念 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。这些课程将引导您了解生成式 AI 等基础知识,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。我建议您一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 如果希望继续精进,对于 AI,可以尝试了解以下内容作为基础: 1. AI 背景知识 (1)基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 (2)历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础 (1)统计学基础:熟悉均值、中位数、方差等统计概念。 (2)线性代数:了解向量、矩阵等线性代数基本概念。 (3)概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型 (1)监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 (2)无监督学习:熟悉聚类、降维等算法。 (3)强化学习:简介强化学习的基本概念。 4. 评估和调优 (1)性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 (2)模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础 (1)网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 (2)激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 此外,以证件照为例,Code AI 应用开发教学中,智能体开发从最初的 chatbot 只有对话框,到有了更多交互方式,因用户需求扣子推出了 AI 应用,其低代码或零代码的工作流等场景做得较好。但 AI CODING 虽强,目前适用于小场景和产品的第一个版本,复杂应用可能导致需求理解错误从而使产品出错。在创建 AI 应用时,要学习操作界面、业务逻辑和用户界面,包括布局、搭建工作流、用户界面及调试发布,重点熟悉桌面网页版的用户界面。
2025-02-17
对作为知识库的数据进行预处理,用哪个软件比较哈
以下是一些可用于对作为知识库的数据进行预处理的软件和方法: 1. LangchainchatGLM:对于知识库内容的组织要求较高,无需微调训练,适合有结构、界限分明的数据。可使用langchain库比对字典的关键词keys部分,找到相似度最高的相关keys对应的内容文本,送进提示词模板(prompt_template),然后送到LLM进行后处理。 2. 在检索原理方面,可通过嵌入模型(如Word2Vec、GloVe、BERT)将问题文本转化为向量,用于后续检索。例如,在商业化问答场景中,会对接收的问题进行预处理和向量化。 3. 在创建知识库并上传表格数据时,可通过API获取在线API的JSON数据上传,或手动自定义创建数据表结构和数据。需注意指定语义匹配字段,在响应用户查询时,将用户查询内容与该字段内容进行比较,根据相似度进行匹配。
2025-02-17
有哪些免费的文生图中文软件
以下是一些免费的文生图中文软件: 1. 豆包 App 支持文生图中文文字生成。 2. Stability AI 推出的基于 Discord 的媒体生成和编辑工具可用于文生图,您可以通过以下步骤使用: 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 进入 ARTISAN 频道,任意选择一个频道。 输入/dream 会提示您没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。输入/dream 提示词,这部分和 MJ 类似,可选参数有五类,包括提示词(必填项)、负面提示词(选填项)、种子值(选填项)、长宽比(选填项)、模型选择(选填项)、张数(选填项)。完成后选择其中一张。 3. 您还可以参考以下教程: SD 做中文文字生成的教程: 找到一款喜欢的字体,写上主题例如“端午”。 打开 SD,选择文生图,输入关键词咒语。 打开 Controlnet,启用 lineart 和 canny 固定字体,如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:29 60 。 直接生成。这里可以举一反三,选择一些水果模型,珠宝模型,毛毡等等快来试一试吧,附免费参数。
2025-02-16
请介绍一下如何使用AI进行PPT生成
以下是使用 AI 进行 PPT 生成的方法: 1. 利用闪击: 访问国内网站 https://ppt.isheji.com/?code=ysslhaqllp&as=invite ,无需魔法。 选择模板。 将准备的大纲转换成适配闪击的语法,可参考官方使用指南:https://zhuanlan.zhihu.com/p/607583650 。 点击文本转 PPT,并在提示框中选择确定,得到转换后的 PPT。 可在线编辑,但导出有会员限制。 2. 以爱设计为例: 导入大纲到工具生成 PPT,其他工具操作方式大同小异,基本基于 Markdown 语法的内容来完成 PPT 生成。 优化整体结构,按照公司要求自行优化字体、图片等元素,针对下载后的 PPT 可删改内容。 3. 结合 GPT4、WPS AI 和 chatPPT: 先让 GPT4 生成 PPT 大纲。 把大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT。 让 chatPPT 添加一些动画。 手动修改细节,如字体、事实性错误等。
2025-02-18
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
我想了解如何在微信公众号搭建一个能发语音的数字人
以下是在微信公众号搭建能发语音的数字人的相关步骤: 1. 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 工作流地址:https://github.com/chaojie/ComfyUImobvoiopenapi/blob/main/wf.json 相关文件: 记得下载节点包,放进您的 node 文件夹里,这样工作流打开就不会爆红了!ComfyUI 启动后就可以将 json 文件直接拖进去使用了! 2. 「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人: 组装&测试“AI 前线”Bot 机器人: 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入即可。 组装&测试步骤: 将上文写好的 prompt 黏贴到【编排】模块,prompt 可随时调整。 在【技能】模块添加需要的技能:工作流、知识库。 【预览与调试】模块,直接输入问题,即可与机器人对话。 发布“AI 前线”Bot 机器人: 测试 OK 后,点击右上角“发布”按钮即可将“AI 前线”发布到微信、飞书等渠道。 发布到微信公众号上: 选择微信公众号渠道,点击右侧“配置”按钮。 根据以下截图,去微信公众号平台找到自己的 App ID,填入确定即可。不用了解绑即可。 最后去自己的微信公众号消息页面,就可以使用啦。
2025-02-18
数字人项目
以下是关于数字人项目的相关信息: 构建高质量的 AI 数字人: 建好的数字人模型可以使用 web 前端页面(如 Live2D 提供的 web 端 SDK)或者 Native 的可执行程序进行部署,最终以 GUI 的形式呈现给用户。 开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择 live2d 作为数字人躯壳,原因是其驱动方式相比 AI 生成式更可控和自然,相比虚幻引擎更轻量和简单。卡通二次元形象的接受度更高,超写实风格在目前技术下易出现一致性问题和恐怖谷效应。Live2d 的 SDK 驱动方式可参考官方示例:https://github.com/Live2D 。 MimicMotion 项目: 腾讯发布的 MimicMotion 项目效果显著优于阿里,支持面部特征和唇形同步,不仅用于跳舞视频,也可应用于数字人。 相较阿里的方案,MimicMotion 的优化包括:基于置信度的姿态引导机制,确保生成视频更加连贯流畅;基于姿态置信度的区域损失放大技术,显著减少图像扭曲和变形;创新的渐进式融合策略,在可接受的计算资源消耗下,实现任意长度视频生成。项目地址:https://github.com/tencent/MimicMotion ,节点地址:https://github.com/AIFSH/ComfyUIMimicMotion 。 爱的传承·数字母亲: 内容负责人:朱睿电子酒 统筹负责人:张小琳电子酒 摄影:万阳 剪辑:萧川布丁子健 数字人:大萌子 使用工具:剪辑:剪映、imovie、美图秀秀;数字人:heygen 为完成数字人的拍摄,朱妈妈吃了 4 片吗啡。2 月 4 号制作完数字人,2 月 5 号拍摄,布丁川川子健凌晨开始剪辑,协调补拍追加了很多镜头,朱哥也熬了几个通宵来丰满素材。虽然最后呈现的效果不完美,但相信这部片子具有一定的社会价值。
2025-02-18
数字人
数字人是运用数字技术创造出来的人,目前业界还没有一个关于数字人的准确定义,但一般可根据技术栈的不同分为两类,一类是由真人驱动的数字人,另一类是由算法驱动的数字人。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业以及现下很火热的直播带货,其表现质量与手动建模的精细程度及动捕设备的精密程度直接相关,不过随着视觉算法的不断进步,现在在没有昂贵动捕设备的情况下也可以通过摄像头捕捉到人体骨骼和人脸的关键点信息,从而做到不错的效果。 制作数字人的工具主要有: 1. HeyGen:是一个 AI 驱动的平台,可以创建逼真的数字人脸和角色。使用深度学习算法生成高质量的肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:是一个 AI 视频制作平台,允许用户创建虚拟角色并进行语音和口型同步。支持多种语言,并可用于教育视频、营销内容和虚拟助手等场景。 3. DID:是一家提供 AI 拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后就能合成一段非常逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会随着时间和技术的发展而变化。在使用这些工具时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。 每个人都可以用 10 分钟轻松制作 AI 换脸、AI 数字人视频,具体步骤如下: 在显示区域,拖动背景图的一个角,将图片放大到适合的尺寸,比如覆盖视频窗口。并将数字人拖动到合适的位置。 增加字幕,点击文本 智能字幕 识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 至此,数字人视频就完成了。点击右上角的“导出”按钮,导出视频以作备用。如果希望数字人换成自己希望的面孔,就需要用另一个工具来进行换脸。
2025-02-17
数字员工如何实现?
数字员工的实现方式主要包括以下步骤: 1. 声音克隆:先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits(GPTSoVITS 实现声音克隆)克隆声音,做出文案的音频。 2. 视频整合:使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址为 https://github.com/Rudrabha/Wav2Lip 。产品可参考 https://synclabs.so/ 。 从学习路径的角度来看,结合“一人公司”的愿景,需要大量的智能体(数字员工)替我们打工。未来的 AI 数字员工会以大语言模型为大脑,串联所有已有的工具和新造的 AI 工具。数字员工(agent)=学历(大模型)+察言观色(观察)+逻辑思维(推理)+执行(SOP)。创造者的学习也依照这个方向,用大语言模型和 Agent 模式把工具串起来,着重关注在创造能落地 AI 的 agent 应用。 Agent 工程(基础版)如同传统的软件工程学,有一个迭代的范式: 1. 梳理流程:梳理工作流程 SOP,并拆解成多个单一「任务」和多个「任务执行流程」。 2. 「任务」工具化:自动化每一个「任务」,形成一系列的小工具,让机器能完成每一个单一任务。 3. 建立规划:串联工具,基于 agent 框架让 bot 来规划「任务执行流程」。 4. 迭代优化:不停迭代优化「任务」工具和「任务执行流程」规划,造就能应对实际场景的 Agent。 在摊位信息方面,有摊位主题为“AI 数字员工”的展示,内容为为企业和个人提供数字劳动力,解决重复性、创意性工作难题。体验 demo 包括抖音运营、AI 客服、智能问诊、企业定制员工、定制知识库等。
2025-02-17
ai数字人
AI 数字人是运用数字技术创造出来的人,目前业界尚无准确定义,一般可根据技术栈分为两类: 1. 真人驱动的数字人:重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货。其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过随着视觉算法进步,在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。 2. 算法驱动的数字人:强调自驱动,人为干预更少,技术实现更复杂。其大致流程中的三个核心算法分别是: ASR(语音识别):能将用户音频数据转化为文字,便于数字人理解和生成回应。 AI Agent(人工智能体):充当数字人大脑,可接入大语言模型,拥有记忆模块等使其更真实。 TTS(文字转语音):将数字人依靠 LLM 生成的文字转换为语音,保持语音交互一致性。 此外,还有一些关于 AI 数字人的摊位活动,例如:为企业和个人提供数字劳动力,解决重复性、创意性工作难题的“AI 数字员工”体验 demo 包括抖音运营、AI 客服、智能问诊、企业定制员工、定制知识库等;“AIGC(图生图)趣味定制;AI 数字人定制”等。
2025-02-17
ai数字人
AI 数字人是运用数字技术创造出来的人,目前业界没有关于其的准确定义,但一般可根据技术栈分为两类: 1. 真人驱动的数字人:重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货。其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过随着视觉算法进步,在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。 2. 算法驱动的数字人:强调自驱动,人为干预更少,技术实现更复杂。其大致流程中的三个核心算法分别是: ASR(语音识别):能将用户音频数据转化为文字,便于数字人理解和生成回应。 AI Agent(人工智能体):充当数字人大脑,可接入大语言模型,拥有记忆模块等使其更真实。 TTS(文字转语音):将数字人依靠 LLM 生成的文字转换为语音,保持语音交互一致性。 此外,摊位活动中也有关于 AI 数字人的主题,如为企业和个人提供数字劳动力,解决重复性、创意性工作难题,包括抖音运营、AI 客服、智能问诊、企业定制员工、定制知识库等体验 demo。还有 AIGC 数字艺术挂画、AI 智能体应用、AI 数字人定制等相关内容。
2025-02-17