Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想制作AI数字人,如何去寻找相关资料和教程

Answer

以下是寻找制作 AI 数字人相关资料和教程的途径:

  1. 在线文档和公众号:可以查看WaytoAGI这个 AI 知识共创在线文档,以及卡兹克大佬的公众号数字生命卡兹克
  2. B 站:在 B 站搜索相关视频教程。
  3. 具体操作方法:
    • 在剪映中,右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉-青春”。选择数字人形象时,软件会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频。剪映会根据提供的内容生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。
    • 为让视频更美观,可增加背景图片。删除先前导入的文本内容,点击左上角“媒体”菜单并“导入”按钮选择本地图片上传,将图片添加到视频轨道上,可通过拖拽轨道右侧竖线使其与视频对齐。

此外,还有一些开源的算法代码仓库可供参考:

  1. ASR 语音识别:
    • openai 的 whisper:https://github.com/openai/whisper
    • wenet:https://github.com/wenet-e2e/wenet
    • speech_recognition(语音识别的接口集合):https://github.com/Uberi/speech_recognition
  2. AI Agent:
    • 大模型包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。
    • Agent 部分可使用 LangChain 的模块去做自定义,包含了 Agent 实现的几个组件(https://www.langchain.com/)
  3. TTS:
    • 微软的 edge-tts:https://github.com/rany2/edge-tts,只能使用里面预设的人物声音,目前接口免费。
    • VITS:https://github.com/jaywalnut310/vits,还有很多分支版本。
    • so-vits-svc:https://github.com/svc-develop-team/so-vits-svc,专注到唱歌方面。

除了算法,人物建模模型可以通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型)实现,但这种简单的构建方式还存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应动作、数字人如何使用知识库做出某个领域的专业性回答等。

Content generated by AI large model, please carefully verify (powered by aily)

References

大峰:AI音乐创作全流程解析《梦回温州》AIMV荣获AI金曲奖并获央视推荐!

最后附上我获取AI知识与教程的方式,我就只看[WaytoAGI](http://mp.weixin.qq.com/s?__biz=MzkzMzQ5MDA5Ng==&mid=2247484966&idx=1&sn=7c7e30db2ed564dd1f7fdc14ca85e092&chksm=c24afaf9f53d73ef89e8a8b34e53e62e5ac9297a1a78fb7da1d5d20955855b797d83b3a2081e&scene=21#wechat_redirect)这个AI知识共创在线文档,和卡兹克大佬的公众号[数字生命卡兹克](http://mp.weixin.qq.com/s?__biz=MzIyMzA5NjEyMA==&mid=2647662111&idx=1&sn=b982780ab549a16b0cc94ae74bb2d0a4&chksm=f007c248c7704b5e96feaadd277d598febac1ce3b6ea4330a37f5ff1a283fec4b08614d4a630&scene=21#wechat_redirect)。其他一些视频教程我都是在B站搜索,几乎都可以搜索到。AI音乐相关的也可以看[AIGCxChina的音乐工具包](https://mp.weixin.qq.com/s?__biz=MzkzMDQ5ODQ0NQ==&mid=2247487755&idx=1&sn=d39a4f48e491d137b3355825eb55c8dd&scene=21&token=141285030&lang=zh_CN#wechat_redirect)

实战: 每个人都可以用10分钟轻松制作AI换脸、AI数字人视频的方法!

3.1生成数字人在剪映右侧窗口顶部,我们打开“数字人”选项,选取一位免费的、适合的数字人形象,这里我选择“婉婉-青春”。当你选择一个数字人形象时,软件会马上播放出该数字人的声音。你可以判断是否是你需要的,点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。剪映App将会根据之前提供的内容,来生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示你渲染何时完成。然后你可以点击预览按钮,查看生成的数字人效果。3.2增加背景图片接下来,可以直接删除先前导入的文本内容。这是因为视频中的音频中已经包含文字内容了。鼠标点击下方代表文字的轨道,或者点击软件中间文字内容,按删除键删去文字:为了让视频更美观,我们为视频增加背景图片。当然你可以增加多个背景图片,为简化演示,这里增加1张图片。点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传:我选择一张书架图片上传,然后像添加文字内容一样,点击图片右下角的加号,将这个图片添加到视频的轨道上(会覆盖数字人):此时,书架图片就会在视频轨道的下面,添加一条新轨道:为了让图片在整个视频播放的时候都显示,可以点击这个轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐:此时,背景图片所在的轨道是选中状态。如果没选中,鼠标点击一下这个规定即可。

AI 数字人-定义数字世界中的你

上述算法开源的代码有很多,这里列出一些仓库供大家参考:ASR语音识别openai的whisper:https://github.com/openai/whisperwenet:https://github.com/wenet-e2e/wenetspeech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口):https://github.com/Uberi/speech_recognitionAI Agent大模型部分就比较多了,包括ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。Agent部分可以使用LangChain的模块去做自定义,里面基本包含了Agent实现的几个组件(https://www.langchain.com/)TTS微软的edge-tts:https://github.com/rany2/edge-tts,只能使用里面预设的人物声音,目前接口免费。VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits系列可以自己训练出想要的人声。so-vits-svc:https://github.com/svc-develop-team/so-vits-svc,专注到唱歌上面,前段时间很火的AI孙燕姿。除了算法,人物建模模型可以通过手动建模(音频驱动)或者AIGC的方式生成人物的动态效果(例如wav2lip模型)实现,这样就完成了一个最简单的数字人。当然这种简单的构建方式还存在很多的问题,例如:如何生成指定人物的声音?TTS生成的音频如何精确驱动数字人口型以及做出相应的动作?数字人如何使用知识库,做出某个领域的专业性回答?

Others are asking
有哪些辅助输出3d模型资源的ai工具推荐一下
以下是一些辅助输出 3D 模型资源的 AI 工具推荐: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材。体验地址:https://cube.csm.ai 。 2. Move AI 推出的 Move API:能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。网址:https://move.ai/api 。 3. ComfyUI 3D Pack:可快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。网址:https://github.com/MrForExample/ComfyUI3DPack/tree/main 。 4. Medivis 的 SurgicalAR 手术应用:将 2D 医疗图像转化为 3D 互动视觉,提高手术精度,支持 3D 模型的放大、缩小、旋转,精确手术计划。网址:https://t.co/3tUvxB0L4I 。 5. Media2Face:3D 面部动画创造工具,根据声音生成同步的 3D 面部动画,允许个性化调整,如情感表达,应用于对话场景、情感歌唱等多种场合。网址:https://sites.google.com/view/media2face 、https://arxiv.org/abs/2401.15687 、https://x.com/xiaohuggg/status/1752871200303480928?s=20 。 6. SIGNeRF:在 3D 场景中快速生成和编辑对象,新增或替换场景中的物体,新生成场景与原场景无缝融合。网址:https://signerf.jdihlmann.com 、https://x.com/xiaohuggg/status/1744950363667759474?s=20 。 7. Luma AI 发布的 Genie 1.0 版本:文本到 3D 模型转换工具,生成详细逼真的 3D 模型,支持多种 3D 文件格式,获得 4300 万美元 B 轮融资。网址:https://lumalabs.ai/genie?view=create 、https://x.com/xiaohuggg/status/1744892707926122515?s=20 。 8. BakedAvatar 动态 3D 头像:从视频创建逼真 3D 头部模型,实时渲染和多视角查看,兼容多种设备,交互性编辑。网址:https://buaavrcg.github.io/BakedAvatar/ 、https://x.com/xiaohuggg/status/1744591059169272058?s=20 。 此外,在 CAD 领域,也存在一些 AI 工具和插件可以辅助或自动生成 CAD 图,例如: 1. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 2. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件,能创建复杂的几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,可创建复杂的 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,可根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 5. 一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供了基于 AI 的生成设计工具,能根据用户输入的设计目标和约束条件自动产生多种设计方案。 但使用这些工具通常需要一定的 CAD 知识和技能,对于 CAD 初学者,建议先学习基本的 3D 建模技巧,然后尝试使用这些 AI 工具来提高设计效率。
2025-03-11
我是AI小白,应该如何浏览了解AI的最新资讯
对于 AI 小白来说,想要浏览了解 AI 的最新资讯,可以参考以下方法: 1. 持续学习和跟进:AI 是一个快速发展的领域,新的研究成果和技术不断涌现。您可以关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 2. 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 3. 关注腾讯研究院开发的一系列专业的 AI 资讯产品,如: AI 每日速递,一份高度凝练的日报产品,帮助您用 3 5 分钟快速掌握 AI 领域当日十大关键进展。 AI 每周 50 关键词,作为周报产品,基于 AI 速递内容构建。通过梳理一周热点关键词并制作可交互索引,为研究者提供便捷的“检索增强”工具,助力快速定位所需信息。 科技九宫格,一档短视频栏目,以 3 5 分钟视频形式解读科技热点与关键技术原理。通过可视化呈现,促进您对前沿技术的理解与讨论。 4. 您还可以通过以下友情链接获取最新资讯:
2025-03-11
aigc 教程
以下为您提供一些 AIGC 教程相关的内容: 1. 2024 AIGC 营销视频生态创新大赛: 10 月 19 日:EM7,南柒() 10 月 23 日:从构思到可视化——AI 脚本与分镜创作(),嘉宾为娜乌斯嘉,是 AI 绘画知名 UP 主、全网粉丝 20w、国内首批 AIGC 应用研究先驱者、模型师、comfyUI 工程师、动画艺术和心理学双硕士。 11 月 01 日:AIGC 制作商业片进阶教程( 11 月 7 日:AIGC 电影化叙事实战教程,嘉宾为 Joey,是莫奈丽莎工作室主理人、上影全球 AI 电影马拉松大赛最佳叙事奖导演、可灵星芒 AIGC 短剧获奖导演、资深创意广告人。 总奖金池百万元,机会就在眼前,准备好您的创意来瓜分百万奖池。 2. AIGC 电影化叙事实战教程: 第三部分:AIGC 电影化的快速技巧 分镜头脚本制作 GPTs:以 2024 AIGC 营销视频生态创新大赛的冰工厂赛道为例。 生图及生视频提示词制作 GPTs 音乐提示词制作 GPTs:参考 prompt 为请帮我制作一首短剧结尾部分转折的纯音乐背景音乐,内容是孙悟空中了圈套,被带上闪电禁锢,落入陷阱,坠入悬崖失去踪迹,希望风格新颖,带有电影感,时长 30s。参考给到的 prompt:Experimental oriental electronica, Intense suspense, Background music, BPM65, Thunderous crashes, Rapid descending synths。调整歌曲快慢技巧:修改 BPM,值越高节奏越快。 3. 上海国际 AIGC 大赛第三名—《嘉定汇龙》复盘: 由咖菲猫咪和三思完成。三思是中国做 stable diffusion 艺术字的高手,具体教程可在 WaytoAGI 查看。核心是让 AI 根据提供的框架生成对应的艺术形态,根据地名特色产业,找寻或炼制 lora,有的用即梦的通用模型生成。 用一镜到底完成全片内容和思想的浓缩,通过空中俯拍嘉定的古老街景呈现历史厚重感,转向现代都市繁荣景象,以 AI 生成的未来场景结尾。 音乐选择为开头增色,从古风音乐到现代电子乐的转换与画面切换契合。 开场部分结合应用了 comfyui 转绘、steerablemotion、runway 文生视频、图生视频等多种 AI 技术,最后通过合成剪辑拼合。 多人在线工作流:十个人的小组,素未谋面却要完成高度协同工作。
2025-03-11
我想入ai赋能科研,该如何进行?有什么软件可以利用?
如果您想将 AI 赋能科研,可以从以下几个方面入手: 1. 探索科研新境界:借助 AI 助力创新,突破传统研究框架,赋予科研无限可能。 2. 揭开 AI 神秘面纱:掌握前沿技术,提升科研效率,让研究变得更智能、更高效。 3. AI 赋能科研:从理论到实践,深入了解人工智能的无限潜力,提升科研成果。 4. 创新与效率的碰撞:探索 AI 在科研中的应用,为您打开技术与智慧的新世界。 5. 未来科研的引擎:进行 AI 技术实操,助力您迈向前沿研究的新时代。 在软件方面,以下是一些可供利用的选择: 1. 对于个人用户,小模型(1.5B/7B/8B)在个人电脑上就能运行,能听懂人话,做简单问答,也适合做翻译、总结、改写,比如学校的自动答疑机、车载语音助手。 2. 中模型(14B/32B)需要专业服务器才能运行,相当于小学霸级 AI,能写代码、解数学题、写应用文,处理复杂说明书,比如帮程序员写代码、解答物理竞赛题。 3. 超大模型(70B/671B)需要科研实验室的超级电脑,能写精彩故事、论文报告,处理海量数据,做高端研究,比如分析全球气候数据、破解基因密码。 可用的途径包括: 1. https://bot.n.cn/ 2. 腾讯元宝(手机 APP) 3. http://metaso.cn(长思考) 4. API 接入法(详见相关图示)
2025-03-11
什么是langchain
LangChain 是一个用于构建高级语言模型应用程序的框架,旨在简化开发人员使用语言模型构建端到端应用程序的过程。 它具有以下特点和优势: 1. 提供一系列工具、组件和接口,使创建由大型语言模型(LLM)和聊天模型支持的应用程序更易实现。 2. 核心概念包括组件和链,组件是模块化的构建块,链是组合在一起完成特定任务的一系列组件(或其他链)。 3. 具有模型抽象功能,提供对大型语言模型和聊天模型的抽象,便于开发人员选择合适模型并利用组件构建应用。 4. 支持创建和管理提示模板,引导语言模型生成特定输出。 5. 允许开发人员定义一系列处理步骤,按顺序执行完成复杂任务。 6. 支持构建代理,能使用语言模型做决策并根据用户输入调用工具。 7. 支持多种用例,如针对特定文档的问答、聊天机器人、代理等,可与外部数据源交互收集数据,还提供内存功能维护状态。 LangChain 是一个为简化大模型应用开发而设计的开源框架,通过提供模块化的工具和库,允许开发者轻松集成和操作多种大模型,将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具备良好的可扩展性,适应不断变化的业务需求。作为得到社区广泛支持的开源项目,拥有活跃的贡献者和持续更新,提供全面的文档和示例代码帮助新用户快速掌握,在设计时充分考虑应用的安全性和用户数据的隐私保护,是多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-03-11
对于教育AI可以做什么
教育 AI 可以在以下方面发挥作用: 1. 帮助获取信息和自学:可以要求人工智能解释概念,获得良好的学习效果。 2. 辅助教师教学:使教师的生活更轻松,让课程更有效。 3. 个性化教学:根据学生的学习情况、兴趣和偏好提供定制化的学习计划和资源,实现因材施教,提高学习效率和成果,缓解教育资源不平等的问题。 4. 重构教育服务:授课教师、游戏玩家、情感伴侣等服务都可以由 AI 承担。 5. 提供历史文化教学:让历史人物亲自授课,不受时空限制,让学生更生动地了解历史和文化,拓宽视野,增强学习兴趣。 6. 作为数字陪伴:例如成为孩子的玩伴,给予社会奖励,促进儿童成长和提高学习成绩。 需要注意的是,由于人工智能可能产生幻觉,对于关键数据应根据其他来源仔细检查。同时,拜登签署的 AI 行政命令中也提到要塑造 AI 在教育方面的潜力,通过创建资源支持教育工作者部署支持 AI 的教育工具。
2025-03-11
用trae写小程序的使用教程
以下是使用 Trae 写小程序的完整教程: 1. 基础操作 右下角选中“DeepSeekR1”,这是关键的基础步骤。 让 AI 设计小游戏,记得说“用 HTML 来实现”,这样无需额外配置环境,生成的网页小游戏可随时随地打开使用。 AI 完成小游戏后,点击代码框右上角的应用。在存放网页的文件夹中找到并打开即可使用。 2. 功能优化 若想给小游戏增加倒计时系统,告诉 AI 让其修改。若第一次修改有误,把错误告诉它并可尝试切换到 deepseekV3 等其他模型。 对于生成效果不太对的情况,如图片重叠,把结果贴给 AI 并描述错误现象和期望表现,让其迭代修改。 3. 后续步骤 完成功能修改后,可进行保存功能的开发。 调整细节,对于一些复杂问题,可能需要多次与 AI 沟通修改。 另外,公众号回复“字幕图片”,可获取源代码。将其保存成.html 文件,在浏览器打开就能使用。您还可以参考 https://openprocessing.org/ 中的创意,复制代码到 Trae 中用 AI 对话优化。
2025-03-11
stable diffusion安装教程
以下是超详细的 Stable Diffusion 安装教程: 一、查看电脑配置是否支持 如果您的电脑是 AMD 或者 Intel,可能不太支持 SD,网上的安装教程也较麻烦。您可以查看专用 GPU 内存: 1. 4GB:说明电脑勉强可以跑动 SD,出图时间较长。 2. 6GB:出一张图的时间是 20 50 秒,SD 的大部分功能都可以使用。 3. 8GB:5 20 秒可以出一张图,基本上 SD 的所有功能都对您开放。 以上操作是用于查看 Windows 系统的,至于 Mac 系统,可以查看以下视频并按照视频一键安装:https://www.bilibili.com/video/BV1Kh4y1W7Vg/?spm_id_from=333.788&vd_source=6f836e2ab17b1bdb4fc5ea98f38df761 二、安装 SD 本地部署 1. 电脑配置能支持 SD 运行的情况下,我们使用 B 站秋叶分享的整合包。整合包链接:https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru 。 2. 具体安装方法: 打开链接,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,避免 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次直接在桌面双击进入。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(即上面查看的专用 GPU 内存)。 回到第一个一键启动,点击右下角的一键启动。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 三、安装超清无损放大器 StableSR 安装方式有两种: 1. 在扩展面板中搜索 StableSR,可以直接安装。 2. 将下载好的插件,放在路径文件夹“……\\sdwebuiakiv4\\extensions”下。安装完成后,重启 webUI,就可以在脚本里面找到这个放大器。
2025-03-11
coze 最新最全教程
以下是一些最新最全的 Coze 教程资源: 此外,还有一泽 Eze 的教程:
2025-03-10
comfyui教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中 KSampler 相关内容: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:值一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同的调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2025-03-10
comfyui 教程
以下是一些关于 ComfyUI 的教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 5. 关于 ComfyUI 中的 Redux 使用: 将 ComfyUI 更新到最新。 下载 sigclip_vision_patch14_384.safetensors 模型并放在 ComfyUI/models/clip_vision 文件夹中。夸克网盘:链接:https://pan.quark.cn/s/739f71d42b87 ;百度网盘:见前文。 下载 flux1reduxdev.safetensors 并放在 ComfyUI/models/style_models 文件夹中。夸克网盘:链接:https://pan.quark.cn/s/32c8291c1c72 ;百度网盘:见前文。 确保 ComfyUI/models/unet/文件夹中有 flux dev 或 flux schnell。 导入工作流:使用 flux_redux_model_example 工作流。夸克网盘:链接:https://pan.quark.cn/s/4ec9d4cfce89 ;百度网盘:链接:https://pan.baidu.com/s/1qK_2kUojF6nsha9cD2Eg2Q?pwd=ris5 提取码:ris5 。 6. 全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 。 7. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ 。 请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-09
在国内,制作AI视频,可用什么工具
在国内制作 AI 视频,可用以下工具: 1. 魔音工坊:可以使用情绪调节控件。 2. 剪映:适用于 1 3 分钟的短片,具有很多人性化设计及简单音效库、小特效,但无法协同工作和导出工程文件。 3. 以下是一些其他的相关工具及网站: SVD:https://stablevideo.com/ ,对于景观更好用。 Morph Studio:https://app.morphstudio.com/ ,还在内测。 Heygen:https://www.heygen.com/ ,数字人/对口型。 Kaiber:https://kaiber.ai/ Moonvalley:https://moonvalley.ai/ Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 美图旗下:https://www.miraclevision.com/ Neverends:https://neverends.life/create ,操作傻瓜。 SD:Animatediff SVD deforum ,需自己部署。 Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 Krea:https://www.krea.ai/ Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 descript:https://www.descript.com/?ref=feizhuke.com veed.io:https://www.veed.io/ ,自动翻译自动字幕。 clipchamp:https://app.clipchamp.com/ typeframes:https://www.revid.ai/?ref=aibot.cn Runway:https://runwayml.com ,有网页有 app 方便。 即梦:https://dreamina.jianying.com/ ,剪映旗下,生成 3 秒,动作幅度有很大升级,最新 S 模型,P 模型。 Minimax 海螺 AI:https://hailuoai.video/ ,非常听话,语义理解能力非常强。 Kling:kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。 Vidu:https://www.vidu.studio/ haiper:https://app.haiper.ai/ Pika:https://pika.art/ ,可控性强,可以对嘴型,可配音。 智谱清影:https://chatglm.cn/video ,开源了,可以自己部署 cogvideo。 PixVerse:https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。 通义万相:https://tongyi.aliyun.com/wanxiang/ ,大幅度运动很强。 luma:https://lumalabs.ai/
2025-03-11
如何制作AI视频
将小说制作成 AI 视频通常包括以下步骤,并可使用以下工具: 工具与网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。 网址:https://github.com/StabilityAI 2. Midjourney(MJ):适用于创建小说中的场景和角色图像。 网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可生成图像和设计模板。 网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。 网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。 网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。 网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。 网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。 网址:https://www.aihub.cn/tools/video/gushiai/ 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,以冷湖《俄博梁纪元》AI 视频为例,其片头框架基本逻辑是:需要视线聚焦到中心的圆形细胞,并保持固定,方便后续画面的转场。由于单张 AI 图生视频的动效太简单,可分几个图层进行处理,还可叠加几个画面来丰富画面。
2025-03-11
图生文怎么制作
以下是关于图生文制作的详细步骤: 一、Tusiart 简易上手教程 1. 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看帖子中使用的 lora。 4. ControlNet:用于控制图片中的特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和长句。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可留意 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 后,采样次数在 30 40 之间,过多意义不大且慢,过少出图效果差。 11. 尺寸:根据个人喜好和需求选择。 二、Liblibai 简易上手教程 1. 定主题:确定要生成的图片的主题、风格和表达信息。 2. 选择 Checkpoint:依照主题找贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 来控制图片效果和质量,参考广场上的优秀帖子。 4. 设置 VAE:无脑选 840000 那一串。 5. CLIP 跳过层:设成 2 。 6. Prompt 提示词:用英文写想要 AI 生成的内容,单词和短语组合,用英文半角逗号隔开,不管语法和长句。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开,不管语法。 8. 采样方法:一般选 DPM++2M Karras 较多,留意 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 后,在 30 40 之间,过多意义不大且慢,过少出图效果差。 10. 尺寸:根据个人喜好和需求选择。 11. 生成批次:默认 1 批。 三、SD 新手入门图文教程 1. CFG Scale(提示词相关性):决定图像与提示的匹配程度,增加该值会使图像更接近提示,但可能降低图像质量,可用更多采样步骤抵消,一般开到 7 11 ,过高会有粗犷线条和过锐化图像。 2. 生成批次:每次生成图像的组数,一次运行生成图像的数量为“批次×批次数量”。 3. 每批数量:同时生成的图像个数,增加会提高性能但需更多显存,若显存未超 12G ,保持为 1 。 4. 尺寸:指定图像长宽,出图尺寸太宽可能出现多个主体,1024 以上尺寸可能效果不理想,推荐小尺寸分辨率+高清修复(Hires fix) 。 5. 种子:决定模型生成图片时的随机性,初始化 Diffusion 算法起点的初始值,相同参数下应生成相同图片。 6. 高清修复:通过勾选“Highres.fix”启用,默认高分辨率下会生成混沌图像,使用后先按指定尺寸生成再放大,实现高清大图效果,最终尺寸为(原分辨率×缩放系数 Upscale by) 。
2025-03-11
ai制作幽默表情包系列的工作流,用dify或make实现的全流程
以下是使用 Dify 或 Make 实现 AI 制作幽默表情包系列的全流程: 1. 素材准备 平面设计稿:确定表情包的基本设计和角色形象。 2. 制作流程 转 3D:将平面设计稿转换为 3D 形式,增加立体感和丰富度。 AI 生成场景:利用相关工具生成适合的场景。 AI 图生视频:将生成的图片转换为视频。 剪辑转 gif:对视频进行剪辑,并转换为 gif 格式。 压缩:使用图像压缩工具,如 https://imageresizer.com/zh/%E5%9B%BE%E5%83%8F%E5%8E%8B%E7%BC%A9 ,对 gif 进行压缩,以满足上传要求。 上传微信表情平台审核:完成压缩后,上传至微信表情平台进行审核。 相关工具: 即梦:https://jimeng.jianying.com/aitool/image/generate Recraft: https://www.recraft.ai/
2025-03-11
ai视频制作流程,详解
将小说制作成 AI 视频通常包括以下流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 以下是一些可利用的工具及网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址: 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 8. 故事 AI 绘图:小说转视频的 AI 工具。网址: 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-11
怎样生成制作logo的提示词
以下是生成制作 logo 提示词的步骤: 1. 获取 Logo 图片的描述:为了帮助一位视障艺术家,需要从摄影、标志设计等方面详细描述图像内容,控制在 50 字左右。 2. 根据 Logo 图片的描述和生成意图生成图片提示词:例如,“The pair of images highlights a logo and its realworld use for a hitech farming equipment;this logo is applied as a black and white tattoo on lower back of an inmate”。 3. 将图片和提示词输入 Comfyui 工作生成。在生成提示词时,可参考已有内容和风格特点进行创作,并根据周边描述设计配套描述。同时,Lora 需要用到 InContext LoRA 中的 visualidentitydesign 进行下载。相关工作流及文件可从指定链接获取。
2025-03-10
我想要一个以自己为蓝本,包括人物和声音的数字人,用来录制课程
以下是制作以自己为蓝本,包括人物和声音的数字人用来录制课程的方法: 1. 生成数字人: 在剪映右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择数字人形象时会播放其声音,可判断是否需要,然后点击右下角“添加数字人”将其添加到当前视频中,软件会生成对应音视频并添加到视频轨道中,左下角会提示渲染完成时间,完成后可点击预览按钮查看效果。 2. 增加背景图片: 可删除先前导入的文本内容,为视频增加背景图片。点击左上角“媒体”菜单并点击“导入”按钮选择本地图片上传,如一张书架图片,点击图片右下角加号将其添加到视频轨道上(会覆盖数字人)。为让图片在整个视频播放时都显示,点击轨道最右侧竖线向右拖拽至与视频对齐。 3. 增加字幕: 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 4. 换脸: 若希望数字人换成自己的面孔,需要用另一个工具进行换脸。 第一步:打开谷歌浏览器,点击链接 https://github.com/facefusion/facefusioncolab 并点击 open colab 进到程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”,无需安装和付费,点击红框对应的 URL 打开操作界面。 第二步:点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”生成。 第三步:等待专属数字人视频出炉。 有关数字人使用上的问题,欢迎在底部评论区留言交流。同时如果对数字人课程感兴趣,欢迎查看通往 AGI 之路 X AI 沃茨的《克隆你自己》课程: 课程内容: 在线观看第一节:https://www.bilibili.com/video/BV1yw411E7Rt/?spm_id_from=333.999.0.0
2025-03-11
有哪些好用的数字人工具,效果好,清晰,不违和,免费
以下是一些好用的数字人工具,效果好、清晰、不违和且免费: 1. 开源且适合小白用户的工具: 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 使用步骤:下载 8G+3G 语音模型包,启动模型即可。 GitHub: 官网: 2. Google Veo 2: 效果:生成的视频接近真实,几乎难以分辨。 应用:适合创作和内容制作。 3. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 1. 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 2. 上传后效果如图所示,My Avatar 处显示上传的照片。 3. 点开大图后,点击 Create with AI Studio,进入数字人制作。 4. 写上视频文案并选择配音音色,也可以自行上传音频。 5. 最后点击 Submit,就可以得到一段数字人视频。 4. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 1. 点击上面的网址,点击右上角的 Create vedio。 2. 选择人物形象,你可以点击 ADD 添加你的照片,或者使用 DID 给出的人物形象。 3. 配音时,你可以选择提供文字选择音色,或者直接上传一段音频。 4. 最后,点击 Generate vedio 就可以生成一段视频。 5. 打开自己生成的视频,可以下载或者直接分享给朋友。 5. KreadoAI: 优点:免费(对于普通娱乐玩家,这很重要),功能齐全。 缺点:音色很 AI。 使用方法: 1. 点击上面的网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,你可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会随着时间和技术的发展而变化。在使用这些工具时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2025-03-11
怎么搭建自己的直播数字人平台
搭建自己的直播数字人平台可以参考以下步骤: 1. 了解相关技术和场景: 熟悉企业端 AI 实践经验,包括 AI 生成爆款内容、公域阵地场景(如视频号、抖音、小红书、公众号等平台的营销推广,涉及矩阵号工具、内容抓取分析、脚本创作、AI 剪辑、自动回复评论、无人直播工具等)、私域阵地场景(朋友圈、小红书、社群、个人 IP 的获客转化,销售企微 SCRM 工具、企业智能体进行 AI 内容抓取和自动回复)、服务自动化工具、快速搭建数据分析看板、跨境电商场景(如 tiktok 视频制作及投放、电商图片设计、精准营销、语言翻译、AI 独立站建设、社媒私域、批量混剪、海外达人直播、无人直播等)。 2. 构建数字人躯壳: 可以使用 web 前端页面(Live2D 提供了 web 端的 SDK)或者 Native 的可执行程序进行部署。 例如开源数字人项目选择 live2d 作为数字人躯壳,其驱动方式相比 AI 生成式更加可控和自然,相比虚幻引擎更加轻量和简单,卡通二次元形象接受度更高。可参考 Live2D 官方示例:https://github.com/Live2D 。 3. 延伸阅读相关资料: 参考政策如《互联网信息服务深度合成管理规定》(http://www.gov.cn/zhengce/zhengceku/202212/12/content_5731431.htm )、《北京市促进数字人产业创新发展行动计划》(https://www.ncsti.gov.cn/kjdt/scyq/zcwj_47/202209/P020220906666181884578.pdf )等。 了解应用如《一键拥有自己的 AI 虚拟人合成平台》(https://mp.weixin.qq.com/s/EhukdKOlHYJGwHBldGi4Q )、《使用 AI 工具生成虚拟数字人(视频)》(https://www.bilibili.com/video/BV1Tb411D7fo/?spm_id_from=333.337.searchcard.all.click&vd_source=2c5fdcdac5fea78671c3a8ebd9a134d3 )等。
2025-03-11
数字人
数字人是运用数字技术创造出来的人,目前业界尚无准确定义,一般可根据技术栈分为真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货,其表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过视觉算法的进步使在无昂贵动捕设备时也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。 制作数字人的工具主要有: 1. HeyGen:AI 驱动的平台,可创建逼真数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人自动转换成语音,合成逼真会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。使用这些工具时,请确保遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。 以下是每个人都可以用 10 分钟轻松制作 AI 数字人视频的方法: 在显示区域,拖动背景图的一个角将图片放大到适合尺寸,覆盖视频窗口,并将数字人拖动到合适位置。 增加字幕,点击文本 智能字幕 识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 至此,数字人视频完成,点击右上角“导出”按钮,导出视频以作备用。若希望数字人换成自己希望的面孔,则需要用另一个工具来进行换脸。
2025-03-11
数字人直播
以下是关于数字人直播的相关信息: 会议讨论: 目前数字人在电商直播上有所探索,做电商直播可能只是因为前期宣传及未发现其他更好场景。 数字人在电商领域不能成为壁垒,配套的运营服务才是关键,续费客户多因服务而非数字人本身。 电商直播分达播和店播,数字人直播在店播中的效果较好,数据能与真人相当。 不建议商家依赖数字人,现阶段数字人服务多为辅助。 盈利方式: 直接卖数字人工具软件,实时驱动的一年 4 6 万往上,非实时的一个月 600 元,市场价格混乱。 提供数字人运营服务,按直播间成交额抽佣。 适用品类和场景: 适用于不需要强展示的商品,如品牌食品饮料;不适用于服装,过品快且建模成本高。 适用于虚拟商品,如门票、优惠券等。 不适用于促销场景,涉及主播话术、套路及调动氛围能力等。 店播场景下数字人直播效果较好。 壁垒和未来市场格局: 长期看技术上无壁垒,目前有技术门槛,如更真实对口型、更低响应延迟等。 不会一家独大,可能 4 5 家一线效果,大多二三线效果公司。 把客户服务好、能规模化扩张的公司更有价值,疯狂扩代理割韭菜的公司售后问题多。 有资源、有业务的大平台下场可能带来降维打击。 数字人简介: 数字人是运用数字技术创造出来的,虽现阶段不能高度智能,但在生活场景中已常见,且随 AI 技术发展迎来应用爆发。业界尚无准确定义,一般可分真人驱动和算法驱动两类。真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,应用于影视和直播带货,表现质量与建模和动捕设备相关,视觉算法进步使无昂贵设备也能有不错效果。
2025-03-11
视频号数字人
以下是关于视频号数字人的相关内容: 制作方法: 1. 准备内容:先准备一段视频中播放的文字内容,如产品介绍、课程讲解、游戏攻略等,也可利用 AI 生成。 2. 创建视频内容:使用剪映 App 进行简单处理。电脑端打开剪映 App,点击“开始创作”,选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号添加文字内容轨道,将准备好的文字内容替换默认文本内容,为数字人提供语音播放内容及生成相应口型。 3. 生成数字人:在显示区域,拖动背景图的一个角将图片放大到适合尺寸,覆盖视频窗口,并将数字人拖动到合适位置。增加字幕,点击文本 智能字幕 识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。完成后点击右上角的“导出”按钮,导出视频以作备用。若希望数字人换成自己希望的面孔,需用另一个工具来进行换脸。 类型和应用场景: 1. 二维/三维虚拟人:用于游戏、IP 品牌(柳夜熙)、内容创作()等。 2. 真人形象数字人:用于直播卖货,营销/投流广告视频录制(Heygen)、语言学习(CallAnnie)等。 价值: 1. 代替人说话,提升表达效率和营销效率,如真人无法 24 小时直播,数字人可以。 2. 创造真实世界无法完成的对话或交流,例如 AI talk 的实验探索,复活故去的亲人等。 面临的问题: 1. 平台限制:目前数字人水平参差不齐,平台担心直播观感,有一定打压限制。如抖音出台一些标准,微信视频号容忍度更低,人工检查封号。 2. 技术限制:形象只是皮囊,智能水平和未来想象空间依赖大模型技术提升。 3. 需求限制:直播带货是落地场景,但不刚需。“懂得都懂”的刚需场景,国内搞不了,目前更多是体验新鲜感。 4. 伦理/法律限制:声音、影像版权等,比如换脸、数字永生等。
2025-03-11