Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生图, 如何保持幻想生物形象一致性

Answer

要在图生图中保持幻想生物形象的一致性,可以参考以下方法:

  1. 对于 Midjourney ,可以采用特定的名人或有特殊属性的人物形象,先确定好影片风格,比如皮克斯动画风格,然后确定好人物形象,如角色的发型、穿着等细节。
  2. 利用 Midjourney 的新功能 Cref ,先跑一张主角的定妆照,在需要出现主角人物的地方扔进去 Cref ,以保持发型、人脸、衣服等的一致性。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,尤其是亚洲老人的一致性效果相对较差,且 Cref 在画面的审美和构图上有一定的破坏性,所以原则上能不用就不用,比如只有背影时,简单描述即可。
  3. 生成动物形象,动物相对更容易保持一致性。
Content generated by AI large model, please carefully verify (powered by aily)

References

前Sora时代我最想做的AI短片——使用Pika、Pixverse、Runway、SVD四大AI视频工具

更多写剧本的方法、小技巧、格式还有软件,希望后面有时间可以多写一些。照例,先放上我写的分镜,这是非常粗糙且不规范的分镜,正常的分镜是要更仔细的,所以大家凑活看。与上一次制作不同的是,因为更了解AI生图的局限,所以我这次写的分镜,有百分之八十都用上了。也算提高了效率,但还是写得太粗糙了,下次尽量按照正规格式写得准确一些,如果我的肝还好的话(主要是就只有我和Zoik看就有点偷懒了)……给大家推荐一些编剧相关的书,虽然我觉得写短片看这些书还是太多了,但基本涵盖了常见的剧作书,供参考吧~其实也不用看这么多书,只不过我看到同类型的书就想买来对比,没时间的话,看《救猫咪》或《电影剧本写作基础》的第一册就行。主要还是练习,写。第二步,生图这次生图,我明显感觉到Midjourney的语义理解比之前好了很多。很多人在生图上都遇到了人物和场景一致性的问题。有两个取巧的方式,一个是像我上个视频一样生成动物,动物会比较容易保持一致性,另一个方式是特定的名人/或者有特殊属性的人物。这次我们用的是第二种方式。首先,先确定好影片风格,这次用的是皮克斯动画风格。真的不是我们不做其他题材,是因为这个故事比较适合用动画呈现,后面的片子我们会多尝试别的题材风格。其次,先确定好人物形象。短片有两个主要角色,角色一:扎马尾、穿白色T恤、穿牛仔裤的14岁女孩;角色二:戴眼镜、灰色头发、穿灰色短衬衫的50岁男人。

开发:PIKA1.0上手评测 - 你就是传奇

能明显感受到,PIKA1.0是启用了一个全新的模型,甚至我感觉不是基于旧有的迭代,而是完全重新做的一个全新的模型。强非常非常多。3D和2D的动画效果更是吊炸天。所以他们的新模型,我会多花一些篇幅和笔墨,来展现一下。首先,文生视频的质量得到了大幅度的提升。我直接写了一段:Prompt:Cinematic,happy laughing girl in office,Pixar style瞬间,匹配皮克斯水平的镜头就出来了。要知道,我只花了1分钟。这效果,我说实话,太特么吓人了。。。。。。而且,这稳定性,这神情。。。爆杀市面上所有的AI视频。再来!A cat flying a plane,Cartoon style在文生图这块,PIKA1.0的新模型稳定的令人害怕。Cinematic,extreme close-up of cars on the road in a jungle,3D rendering不规则构图的汽车行驶在道路上,这个前进的镜头依然稳定的可怕,车上的光影更是表现的极好。无敌。真的无敌。同时,有两个小技巧是,右下角第三个设置里,负面提示(Negative prompt)可以常驻:blurry,out of focus,twisted,deformed。提示词相关性别设太高,可以5~15之间,自己实测下来效果最好。再来说图生视频。图生视频这块,效果也依旧棒。放几个case。(这里因为GIF图比较大所以只能放了每秒10帧的GIF,所以看起来可能有一些卡,这并不是PIKA的原因。)说实话,Runway原本剩的唯一优势就画质好+一致性强点了。。。但是你看看现在的PIKA1.0。。。。。。人的一致性已经逆天了,再加上它强到爆的语义理解,以及幅度巨大的动作。。。。咋比啊。。。这PIKA1.0新模型的质量,特别是它最擅长的3D和3D的动画的质量,真的让人激动到无以复加。

卡兹克:我们花了10天时间,给CCTV6做了一部AI短片 - 5000字全流程复盘拆解

在图片生成上,我们依然用的是Midjourney,原因依然单纯的很简单:我要的电影感和审美,只有Midjourney可以做出来。很多人问,画面的电影感到底怎么做出来,为什么我的图总是一股子AI感。其实挺简单的,画面的电影感无非就是几个点:画幅,审美、色调、构图、光影、景深等等。我最喜欢用的画幅比例就是,21:9。画幅的比例是会影响生图的构图和光影的,21:9,是出电影感最好的比例。同时在Prompt里,也可以加电影的专用摄影机,比如RED Helium 8K等等。而我们的整体Prompt风格后缀:________.Shot on Sony Venice 2,muted color tones,green and dark gray,award-winning composition,cinematic scene--ar 21:9而在人物一致性上,在有了Midjourney的新功能Cref以后,其实就非常简单了。我们直接先跑了一张主角的定妆照。然后在需要出现主角人物的地方,扔进去Cref。保持发型、人脸、衣服。坦率的讲,Midjourney对亚洲人脸的Cref一致性,要比对欧美的人脸的一致性效果差太多太多了,年轻人还好点,亚洲老人简直惨不忍睹。而且Cref的效果,在画面的审美和构图上,其实是有一定的破坏性的,所以在原则上,是能不用Cref就不用Cref,比如只有背影的时候,写个短发男人黑卫衣就完事了。

Others are asking
手绘草图生成图片
以下是关于手绘草图生成图片的相关信息: ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词,从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,Union 版本不建议权重调太高,结束时间也不宜过长。 生成上色后的视频: how2draw Flux lora:分享一个好玩的 flux lora,触发词为 how2draw。 图片生成 3D 建模工具: Tripo AI:在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 Meshy:功能全面,支持文本、图片生成 3D 以及 AI 材质生成。 CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象。 Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域。 VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型。 【SD】真人转二次元: 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,X 轴为提示词相关性(130,每次增加 5),Y 轴为重绘幅度(01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,大于 11 后画面色彩和脸型可能崩坏,重绘幅度大小可控制生成图与原图的相似度。 绘图功能:如增加红色眼镜、去掉衣服图案、局部重绘(手涂蒙版)修改部分等。
2025-04-01
怎么用图生成png格式的新图
以下是用图生成 PNG 格式新图的方法: 使用 Stable Diffusion: 1. 若在网上看到好看的大佬的图,将其导入 SD。若能识别,右边会自动弹出照片的信息,包括正面关键词、负面关键词,还有其他种子、大模型等信息。 2. 复制这一大串信息,来到“文生图”页面,粘贴到关键词的文本框中。 3. 点击“生成”按钮下面的第一个小按钮,SD 会自动分配信息,在有相同大模型和 Lora 的前提下,点击生成,可能得到差不多的照片。 4. 若导入照片后右边未出现生成信息,说明照片不是直接从 SD 下载下来的 PNG 格式照片,此时可使用“标签器(Tagger)”来生成照片的关键词。 使用 OpenAI 的图像生成端点: 1. 图像生成端点允许在给定文本提示的情况下创建原始图像,生成的图像大小可为 256x256、512x512 或 1024x1024 像素,较小尺寸生成速度更快。可使用参数一次请求 1 10 张图像。描述越详细,越有可能获得想要的结果,也可在 DALL·E 预览应用程序中探索示例获取更多提示灵感。 2. 图像编辑端点允许通过上传蒙版来编辑和扩展图像。遮罩的透明区域指示应编辑图像的位置,提示应描述完整的新图像,而不仅仅是擦除区域。上传的图片和遮罩必须是小于 4MB 的正方形 PNG 图片,且尺寸相同。生成输出时不使用遮罩的非透明区域。
2025-03-27
思维导图生成ai
以下是一些与思维导图相关的 AI 工具: 1. GitMind:免费的跨平台思维导图软件,可通过 AI 自动生成思维导图,支持多种模式,如提问、回答、自动生成等。 2. ProcessOn:国内的思维导图与 AIGC 结合的工具,能利用 AI 生成思维导图。 3. AmyMind:轻量级在线 AI 思维导图工具,无需注册登录,支持自动生成节点。 4. Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路,生成文章大纲。 5. TreeMind:“AI 人工智能”思维导图工具,输入需求后由 AI 自动完成思维导图生成。 6. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能,有助于提升生产力。 总的来说,这些工具都能通过 AI 技术自动生成思维导图,提高制作效率,为知识工作者带来便利。 此外,还有一些关于思维导图生成的相关信息: 在使用 flowith 时,可通过引用节点技巧让 AI 根据特定参照输出高关联度内容,还可对比不同模型输出择优深挖,在满意内容节点添加“文本编辑器显示”进行精加工。 12 月更新的生成式 AI 年终数据中,思维导图相关的如 Whimsical Al 等也有相关流量等数据统计。
2025-03-25
将2D图生成3D模型的AI是什么
以下是一些能够将 2D 图生成 3D 模型的 AI 相关信息: 有几个团队正在追求根据文本或图像提示轻松生成纹理的机会,包括 BariumAI(https://barium.ai/)、Ponzu(https://www.ponzu.gg/)和 ArmorLab(https://armorlab.org/)。 微软与 blackshark.ai(https://blackshark.ai/)合作,并训练了一个 AI 从 2D 卫星图像生成逼真的 3D 世界(https://blackshark.ai/solutions/)。 生成性 AI 可以为游戏创建 2D 艺术、纹理、3D 模型,并协助关卡设计。
2025-03-24
推荐一下将草图生成效果图的agent
以下是为您推荐的将草图生成效果图的工具: https://www.stablevideo.com/tools ,该网站更新了草图变效果图的工具。 您还可以参考《》,了解相关实践。
2025-03-20
图生视频的AI工具
以下是一些图生视频的 AI 工具: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上直接生成视频,由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 StableVideo 相关: stablevideo.com 已开放公测。目前市面上优秀的 AI 视频工具各有特点,可参考卡兹克的教程介绍:https://mp.weixin.qq.com/s/YGEnIzfYA3xGpT9_qh56RA ,以及 zho 总结的官方网站的案例。现在还能白嫖,除每日 150 个赠送积分外,还新增了积分购买选项,目前提供两种积分包(积分永久有效):500 积分/$10,约 50 段视频;3000 积分/$50,约 300 段视频。此外,SVD 可以操作固定种子、步数、运动幅度,交互也很有意思,在生成的过程中,会给一些案例让用户帮忙做标注。 上海国际 AIGC 大赛第三名—《嘉定汇龙》复盘: 图生视频方面,主要市面上的工具包括可灵、即梦、Luma,核心方法是穷举,不断抽卡并调整 prompt,如设计人物动作、辅助镜头运镜。在视频制作中,结合使用了 Runway 的文本生成视频和 Steerable Motion 技术,实现复杂的镜头运动,采用首尾帧图生视频技术,将多个短镜头拼接成连续的长镜头,提高画面连贯性和流畅度。
2025-03-19
人物一致性
Midjourney 的角色一致性功能: 功能介绍:类似于“风格参考”功能,尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 实际效果:例如以甜茶或小公主的图片为案例,不同的强度参数下,发型、衣服等会有相应变化。 相关优势:能节省工期,提升生产管线的可控性。 其他应用:利用 MJ 重绘功能,在重绘提示词里输入`cref cw`保证角色一致性。对于生成图中的黑边,可框住黑边部分重绘输入关键词“background”去除,保证背景一致。 体验网址:MJ 的网页版体验较好,网址为 https://alpha.midjourney.com/
2025-03-29
星流ai人物一致性
以下是关于星流 AI 人物一致性的相关内容: 在实现角色一致性方面,有以下几种方法和示例: 1. 可以通过特定的 prompt 格式来实现,公式为:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。 2. Midjourney 推出了角色一致性功能,同步支持 MJ V6 和 Niji V6。跟之前的风格一致性sref 命名基本一致,为cref。cref 背后参数cw 的值可以从 0 设到 100,cw 100 会参考原图的脸部、头发和衣服,但相应的会非常不吃 Prompt;cw 0 时,就只会参考脸部,大概约等于一个换脸。 3. PixVerse 有“角色(Character)”新功能,能实现 AI 生成视频中的角色保持一致。用户只需单击“Character”功能,上传符合要求的图像,点击创建自定义角色,训练一个新角色,然后可使用自定义角色生成视频,可在 AI 生成视频中轻松切换场景,同时保持同一角色身份。该功能目前只支持真实人脸,暂不支持动物或其他风格照片。操作说明:在主页面点击选择“Character”,点击“Create Character”,在此界面通过点击或拖动的方式上传图片,命名您创建的 Character,最后点击“Create Cha”。提示:最好使用包含真实人脸的单人图片效果最佳,脸部大小需要超过 200×200px,面部无遮挡。Character 添加完毕后,等待 20 秒左右,在看到“Success”提示后,点击“Create”进。若未等到“Success”提示便进入创作界面,会找不到创建的 Character,此时需等待 10 30 秒,待 Character 创建完成即可。 相关网址: 1. 2. 3. Midjourney 网页版:https://alpha.midjourney.com/ 4. PixVerse:https://app.pixverse.ai/ (目前可以免费使用)
2025-03-18
人物一致性
Midjourney 的角色一致性功能: 此功能是官方推出的重要功能,可使生成的人物与参考图像相匹配。 使用方法:在提示词后输入 `cref URL` 并附上人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可使用 `cw` 来修改参考强度,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入 `cref cw` 。 若有黑边问题,可将黑边部分框住,重绘输入关键词 `background` 去除黑边保证背景一致。 体验 MJ 网页版效果较好,网址:https://alpha.midjourney.com/
2025-03-18
comfy ui 九宫格生图保持人物一致性的原理
Comfy UI 九宫格生图保持人物一致性的原理主要基于 PuLID 技术,具体如下: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,它结合了两个不同的模型分支(Lightning T2I 分支和标准扩散模型),引入了两种损失(对比对齐损失和精确 ID 损失)。 Lightning T2I 分支是一个快速、高效的文本到图像生成模型。 标准扩散模型是常见的、生成高质量图像的模型。 对比对齐损失帮助模型学习将输入的文本和生成的图像内容对齐,使生成的图像更符合文本描述。 精确 ID 损失确保生成的图像中的特定身份特征(比如人物的脸部特征)与目标 ID 一致。 此外,在保持人物一致性方面,还有一些操作步骤: 生成图像(提示词加入分割描述,让一张图生成多张同空间小图)。 通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类)。 上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张)。 放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。 同时,Eva CLIP 也是相关的技术: Eva CLIP 是一种基于对比学习的视觉文本模型,将文本描述和图像内容映射到一个共享的嵌入空间。 对比学习架构:使用对比学习方法,将图像和文本嵌入到一个共享的空间,通过最大化匹配图像和文本对的相似度,同时最小化不匹配对的相似度,学习到图像和文本之间的关联。 强大的特征提取能力:编码器擅长提取图像中的细节特征,并将其转换为有意义的嵌入向量,用于下游任务。 多模态应用:能够处理图像和文本两种模态,广泛应用于多模态任务中,如生成、检索、标注等。 其应用场景包括图像生成、图像检索、图像标注等。Eva CLIP 编码器通常与深度神经网络结合使用,如卷积神经网络(CNN)用于图像特征提取,Transformer 网络用于处理文本描述。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: instant ID 脸部特征抓取得比 pulid 好,放在最后一步重绘,先 pulid,再 instantID https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e8 1d90 4373 94cf 0249d14c73c8 测试案例:
2025-03-17
comfy UI 如何保持人物一致性
要在 ComfyUI 中保持人物一致性,可以通过以下方式实现: 1. PuLID 技术: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,无需复杂调整。 它结合了 Lightning T2I 分支和标准扩散模型两个不同的模型分支,并引入了对比对齐损失和精确 ID 损失两种损失,以确保在保持原始模型效果的同时,高精度地自定义 ID。 Lightning T2I 分支是快速、高效的文本到图像生成模型,标准扩散模型是常见的生成高质量图像的模型。 PuLID 可以让您在生成图像时更精确地定制人物或物体的身份,将特定 ID(例如人脸)嵌入到预训练的文本到图像模型中,而不会破坏模型的原始能力。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: 百度网盘:https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e81d90437394cf0249d14c73c8 instant ID 脸部特征抓取得比 PuLID 好,可放在最后一步重绘,先 PuLID,再 instantID。 2. 节点设置: 节点插件 PuLID ComfyUI:https://github.com/cubiq/PuLID_ComfyUI model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。比如,ortho_v2 和 fidelity:8 等价于标准节点的 fidelity 方法,而 projection ortho 和 fidelity:16 等价于 style 方法。 此外,在 8 月 13 日的 ComfyUI 共学中也提到控制人物一致性有很多方法,课程后期会介绍。
2025-03-17
人物一致性
Midjourney 的角色一致性功能: 此功能类似于“风格参考”,但尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入`cref cw`。 若有黑边问题,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 体验 MJ 网页版效果更佳,网址:https://alpha.midjourney.com/
2025-03-13
我有一份青年创新讲稿,想用自己的数字形象和我自己的声音讲解,背景要做一些和讲稿内容相符的视频。什么工具最称手呢?
以下是一些适合您需求的工具: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色。它运用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等领域。 2. Synthesia:一个 AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:一家提供 AI 拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台的 AI 语音机器人会自动转换成语音,然后合成逼真的会开口说话的视频。 此外,还有以下工具供您参考: 1. 开源且适合小白用户的工具:具有一键安装包,无需配置环境,简单易用。其功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选,系统兼容 Windows、Linux、macOS,模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用时需下载 8G+3G 语音模型包,启动模型即可。相关链接:GitHub: 2. Google Veo 2:能生成逼真的 Vlog 视频,效果接近真实,几乎难以分辨,适合创作和内容制作。相关链接: 请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。在使用时,请确保遵守相关使用条款和隐私政策,并注意对生成内容的版权和伦理责任。
2025-04-02
我上传一个ai人物形象,有什么AI能驱动他当做数字人来口播,免费的那种
以下为您介绍一些可以免费驱动 AI 人物形象当做数字人进行口播的工具及使用方法: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加您的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 使用方法: 点击网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 4. 剪映: 优势:作为字节跳动旗下的产品,在抖音平台上被广泛应用,海外版 CapCut 也有出色表现。其拥有六大 AI 功能,能在编辑器里完成脚本生成、语音克隆、数字人口播等环节。 下载地址:剪映 制作流程: 打开剪映,添加一个文本到文字轨道,并修改好需要朗读的文字。 点击朗读,并进行声音克隆,剪映的声音克隆现在只用念一句话就可以完成克隆。 克隆完成后,选择喜欢的数字人形象,并把自己的克隆音色换上去。 一键智能生成字幕,再自行调整文字样式并校准。 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象。 当选择一个数字人形象时,软件会马上播放出该数字人的声音。点击右下角的“添加数字人”,就会将选择的数字人添加到当前视频中。 左下角会提示渲染何时完成。然后可以点击预览按钮,查看生成的数字人效果。 增加背景图片: 可以直接删除先前导入的文本内容。 为视频增加背景图片,点击左上角的“媒体”菜单,并点击“导入”按钮,来选择本地的一张图片上传。 点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽,直到视频的最后,也就是和视频对齐。
2025-03-27
结合北京房山区文化、地标建筑、生态景观等内容,设计房山区中小学数学节 LOGO,要求巧妙融合数学元素(如几何图形、数学公式、数学符号等)与 AI 元素(如神经网络图案、代码片段、智能机器人形象等),生动诠释 “数学 + AI=?” 的主题内涵。
以下是为您整合的相关内容: 北京具有丰富多样的特色元素,包括经典地标如万里长城、天安门广场、故宫角楼、天坛等,见证了历史变迁;宜居生活方面,有独特的美食如豆汁儿、脆皮烤鸭、老北京炸酱面,以及充满京腔的日常生活;潮流文化新地标如国家博物馆、胡同里的新老交融、环球影城、798 等;未来科技方面,有西二旗的上班族日常、北大化学系科研 vlog、世界机器人大会等。 在海报设计方面,若对 AI 回答有疑问可再搜索确认,对于想用的项目要确认与北京的关系及能否使用;兔爷、戏曲金句等北京有名元素可用,金句可分化。做海报时可借鉴三思老师毛绒玩具美食系列,先找参考、做头脑风暴。比赛征集内容有四个赛道,若做系列海报,围绕金句或偏向北京非遗项目做系列较简单。用 AI 制作海报时,如制作北京地标糖葫芦风格海报,可用集梦 2.1 模型,以天坛等建筑为画面中心,注意材质、抽卡选图和细节处理。 对于设计房山区中小学数学节 LOGO,您可以考虑将房山区的特色文化、地标建筑、生态景观与数学元素(如几何图形、数学公式、数学符号等)和 AI 元素(如神经网络图案、代码片段、智能机器人形象等)相结合。例如,以房山区的著名建筑为主体,融入数学图形进行变形设计,同时添加一些代表 AI 的线条或图案,以生动诠释“数学 + AI=?”的主题内涵。
2025-03-18
形象照生成软件
以下是一些与形象照生成相关的内容: DALL·E 自动优化提示词:提供了关于绘画和数字方面的提示内容,包括提及绘画的种类、画布纹理、笔触形状和纹理,以及软件使用、阴影技术和多媒体方法等。还包括使用 DALL·E 3 生成图像的相关要求,如默认的方面比例、风格等,并强调遵循提示指南,避免违反服务条款和版权问题。 Han:优质 Prompts 分类精选 摸鱼辅助:可以帮助内向的人生成得体且简短的自我介绍和像素风格名片,通过提出一系列问题收集信息,然后生成自我介绍并结合形象照生成数字名片。 制作个人奥运头像:选用 MJ 软件进行生图,先生成基础图片,再对脸部重绘。输入部分使用 ChatGPT 生成人物描述,结合范例提示词添加中国人、中国运动服和项目场景描述,进行 MJ 绘图测试和局部重绘,还提到了处理流程图。
2025-03-12
哪些软件可以将2D形象转换为3D
以下是一些可以将 2D 形象转换为 3D 的软件: 1. Kaedim:专注于从图像到 3D 的转换。 2. Mirage:专注于从文本到 3D 的转换。 3. Hypothetic:对从文本到 3D 的搜索以及从图像到 3D 的转换都感兴趣。 4. Nvidia 的 Get3D:专注于从图像到 3D 的转换。 5. Autodesk 的 ClipForge:专注于从文本到 3D 的转换。 6. Tripo AI:能够利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 7. Meshy:不仅支持文本生成 3D,还支持图片生成 3D 以及 AI 材质生成。 8. CSM AI:支持从视频和图像创建 3D 模型。 9. Sudo AI:支持通过文本和图像生成 3D 模型,特别适用于游戏领域的模型生成。 10. VoxCraft:能够将图像或文本快速转换成 3D 模型,并提供了图像到 3D、文本到 3D 和文本到纹理等多种功能。
2025-03-06
如何让文生图片保持形象一致
要让文生图片保持形象一致,可以参考以下方法: 1. 首先进入文生图,填写提示词,例如“,一头白发的女孩坐在绿植和鲜花的田野里,温暖的灯光,模糊的前景”,设置常规参数生成一张图。 2. 若想以该人物为主角生成一系列其他图,将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,先将保真度数值设置为 1。 3. 在没有明确指向性提示词的情况下,人物形象能保持一致,但表情、动作、服装可能产生随机变化。 4. 可以通过添加关键词来给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等,比如添加“红裙子”“黑色校服、哭泣”“抱手、生气”“在花丛中奔跑、开心”“红色棒球帽,时尚卫衣,在商场逛街”。 5. 像制作典籍类作品时,可对主要人物先出一版形象照,后续所有画面用“cref”做人物一致性的操作。 通过以上一系列操作和测试,可以发现这些功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况做实时的调整,若后期再配合 lora,潜力非常大。
2025-03-02