直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

使用人物Lora生成的图片中有多个人物时,怎么让人物的形象各不相同?

回答

在 Stable Diffusion 中,若使用人物 Lora 生成的图片中有多个人物并想让人物形象各不相同,可参考以下方法:

  1. 在提示词中输入数量词(如 2girls 或 3boys 等),再加上各自的描述提示词。若刷图成功率不高,可配合 openpose 控制,做一个多人骨架,以生成多人物构图。
  2. 需使用不同的 Lora 来区分人物,但单纯靠提示词可能行不通。
  3. 分区控制思路:
    • Multidiffusion 的做法:启用 Tiled Diifusion,打开分区提示词控制,创建文生图画布。启用不同区域,分别填写背景、不同人物的描述词和 Lora。增加 controlnet 的 openpose 控制来稳定人物,但可能存在分区生成的人物连续性低、lora 控制不强等问题。
    • Latent Couple 的做法(文中未提及,需进一步探索)。

此外,关于 Lora 模型:

  1. Lora 可以固定照片的特征,如人物特征、动作特征和照片风格。
  2. 点击“生成”下面的第三个按钮,找到 Lora 选项,可添加下载保存到电脑的 Lora 模型,Lora 可叠加使用,但新手不建议使用太多,且 Lora 之间用英文逗号隔开,每个 Lora 后面的数字用于调整权重,一般只会降低权重。选择 Lora 应根据最初想要生成的照片类型决定。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】多角色Lora同时出现的方法,想磕的CP随便磕

在Stable Diffusion中,想要实现画面出现多人物是不难的,你只需要在提示词中输入2girls,或者3boys等数量词,再加上一些各自的描述提示词就可以了。如果嫌刷图成功率不高,还可以配合openpose控制,做一个多人骨架,就可以生成一个多人物构图了。但是呢,同一个模型出来的人物,脸部还是太雷同了,想要区分人物还得使用不同的Lora。接下来,我使用的两个lora,分别来自最终幻想7中的人气角色——蒂法和爱丽丝。我们输入一段提示词:(2girl:1.2),absurdres,8k uhd,1girl,cute,red shoes,taut shirt,black skirt,<lora:tifav2:1>,1girl,cropped jacket,hair bow,bracelet,pink dress,<lora:aerith-nvwls-v1-final:1>,garden background,flowers,magnolias,apple tree,close up portrait。分别描述这两个lora所对应的形象,但是结果却发现人物的特征全部混合在了一起,说明单纯靠提示词这样是行不通的。这里我们需要用到一个分区控制的思路,我总共写过两篇可以用来分区绘图的文章,分别是Multidiffusion和Latent Couple:

【SD】多角色Lora同时出现的方法,想磕的CP随便磕

我们先来看看Multidiffusion的做法。首先,启用Tiled Diifusion,打开分区提示词控制,创建一个文生图画布。启用区域1,作为背景,填写关键词:花园背景,鲜花,木兰,苹果树启用区域2,作为前景,填写关于蒂法的描述词和lora。启用区域3,作为前景,填写关于爱丽丝的描述词和lora。通过刷图,我发现这样几乎很难生成两个刚好在一起的人物。因为multidiffusion的分区原理是分图层绘画,然后通过边缘羽化将图层融合在一起,但是这样的操作会导致画面的连续性很低,两个人物变得毫无关联。我们增加一个controlnet的openpose控制,来稳定住两个人物。生成好了,我们来看一下。人物确实是分开了,但是lora的控制不是很强,特别是右边的爱丽丝看起来不太像。不如刚才没加controlnet之前爱丽丝的效果好,说明同时生成两个lora人物对于Multidiffusion来说还是有难度的。

教程:超详细的Stable Diffusion教程

通过输入关键词,我们已经能够生成一张稍微好看一点的小姐姐的照片了,但是现在我想要生成5678张照片,而且我要出来的照片都是同一张脸,这怎么办呢?这时候我们就要用到Lora模型简单来说,Lora可以固定我们照片的特征:人物特征、动作特征、还有照片风格点击“生成”下面的的第三个按钮,就会弹出新的选项框找到Lora,就会出现我们下载保存到电脑的Lora模型点击我们要用的Lora,就会自动添加到关键词的文本框里面前面那四张照片用到的就是这三个Lora,由此可见,我们的Lora是可以叠加使用的但是建议新手不要使用太多lora,因为这样照片出问题了,你也不知道是哪个Lora有问题另外,Lora之间一样用英文逗号隔开每个Lora后面都有数字,这是用来调整这个Lora的权重的,正常情况下是1,我们一般只会去降低权重,因为增加权重照片可能就会变得奇奇怪怪每个Lora设置的权重不一样,出来的照片就会不一样想要生成一个好看的小姐姐,就要多去尝试不同的权重组合现在问题又来了,我们怎么选择Lora呢?这个问题就要回归到你最开始想要生成什么样的照片

其他人在问
mj如何保持人物一致性
在 MJ 中保持人物一致性可以按照以下步骤进行: 1. 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 2. 确定前后图的构图风格:出第二张图时,将第二张图提示词描述后加入第一张图的构图风格(iw 参数)。 iw 取值范围为,不填写默认 iw = 1,iw 值越大越接近垫的图像,反之更接近提示词。为确保人物一致性,建议取 iw 2。 3. 确定图片角色一致性: 在得到构图相同后,利用 MJ 重绘功能,对画面进行局部重绘。在重绘提示词里输入 cref cw 来保证角色一致性。cref 所垫图还是用的是刚才一张图,因为第一张图有两个内容我们都要拿:构图、人物。 若出现黑边,将黑边部分框住,重绘输入关键词“background”就能去除黑边,保证背景一致。 需要注意的是,由于 MJ 不可控因素,相较于保证人物位置,先保证构图会容易很多。因为 MJ 在重绘时,如果要将一个角色从镜头一个位置挪到另外一个指定位置,非常难处理。整个 MJ 出图基本也是靠降噪重绘,固定位置重绘局部内容会比改变整个画面结构容易很多。这就好比美术课画画,给一张参考图,一个是把背景风格都做好了,让在固定位置添加内容,另一个是将整个页面内容全部重绘,还要保证画面的主题内容要和参考图一样,相比之下后者的随机性会大非常多(抽卡次数也会很多)。 在生成人物图片时,先确定人物形象,如“a little girl wearing a yellow floral skirt+人物动作+风格词”,在 mj 中生成直到得到一张满意的人物图像。为了确保人物一致性,取 iw 2 。然后可以使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐,可将合成后的图作为垫图(iw 2),mj 重新生图。
2024-11-02
两个人物图合成一张图片,有什么好工具?
以下是一些可以将两个人物图合成一张图片的工具和方法: 1. Midjourney(MJ): 确定人物形象,通过相关提示词生成人物图像。 利用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐,可将合成后的图作为垫图在 MJ 中重新生图。 2. Stable Diffusion(SD): 可使用 Roop 插件进行多人物脸部替换。例如生成一张包含两个古风人物的图片,通过图生图调整重绘幅度,并在 Roop 插件中载入相应人物照片形象进行脸部替换,最后使用 PS 扩图。 3. 其他方法: 利用 MJ 画图制作底图,使用 InsightFaceSwap 插件处理脸部,分割裁剪图片、处理后缝合,再用相关软件让图片动起来。 直接在网上寻找能够融合两张照片的软件或项目,若没有则进行纯 P 图,然后利用图生视频的项目完成。
2024-10-28
照片人物与虚拟人合成
以下是关于照片人物与虚拟人合成的相关内容: 使用 Midjourney(MJ)生成人物图片: 确定人物形象,如“a little girl wearing a yellow floral skirt + 人物动作 + 风格词”,在 MJ 中生成直到得到满意的人物图像。可使用垫图 URL 及相关提示词,如“In the forest,a little girl wearing a yellow floral skirt is playing happily,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2”,其中“iw 取值范围,不填写默认 iw = 1,iw 值越大越接近垫的图像,反之更接近提示词。为了确保人物一致性,取 iw 2”。 合成人物和场景: 使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐,可将合成后的图作为垫图(iw 2),在 MJ 中重新生图,提示词如“垫图 url + Little girl wearing a yellow floral skirt,and her friend brown bear,taking shelter in the cave,rainstorm,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2”。 在 StableDiffusion(SD)中绘制一致性多角度头像: 准备工作:准备一张人物的多角度图片,尺寸设置为 1328×800px,放大两倍后保证每张小图都是 512×512px。加上网格图,通过 lineart 来分割不同的块面。设置 controlnet,第一张图选择 openpose_face 得到人物的 15 个面部角度,第二张图选择 lineart_standard得到清晰的表格分区,为防止小图模式下人脸崩坏,可增加 ADetailer 的脸部修复插件。 制作数字人的工具: HeyGen:AI 驱动的平台,可创建逼真的数字人脸和角色,适用于游戏、电影和虚拟现实等应用。 Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后合成逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化,使用时请遵守相关条款和政策,并注意版权和伦理责任。
2024-10-28
怎么用AI绘制一个我指定的动漫人物原型的各类图片,例如日漫《好想告诉你》中的黒沼爽子
要使用 AI 绘制指定的动漫人物原型,如日漫《好想告诉你》中的黑沼爽子,您可以按照以下步骤进行: 1. 选择合适的 AI 绘画工具:目前有许多在线的 AI 绘画平台和软件可供选择,例如 DALL·E2、StableDiffusion 等。 2. 明确描述特征:在输入描述时,尽可能详细地描述黑沼爽子的外貌特征,包括发型(如黑色的长直发)、眼睛(如大而明亮的眼睛)、服装(如校服的款式和颜色)、表情(如羞涩的微笑)等。 3. 参考相关图片:如果可能,找到黑沼爽子的官方图片或其他粉丝绘制的作品,作为参考提供给 AI 绘画工具,以帮助其更好地理解您的需求。 4. 不断调整和优化:根据生成的初步结果,对描述进行调整和优化,例如修改某些特征的描述、增加更多细节等,以获得更符合您期望的图片。 需要注意的是,AI 绘画的结果可能会受到多种因素的影响,不一定能完全符合您的预期,但通过不断尝试和优化,您有机会获得较为满意的作品。
2024-10-17
生成人物图像哪个AI最好
以下为一些生成人物图像较好的 AI 工具及相关信息: PhotoMaker:可以根据文字描述生成人物照片,能混合不同人物特征创造新形象,还能改变照片中人物的性别、年龄。网址:https://photomaker.github.io 。 在人物构图的视角选择方面,有以下几种常见视角: 正视角:拍摄对象正对着相机的姿态,使人像呈现出正面的视角。咒语关键词:Front view 。生成思路:正视角的年轻女孩。生成咒语:young girl,front view,ar 16:9 。 后视角:从被摄对象的背后拍摄的视角,以被摄对象的背部为主要构图元素。咒语关键词:Back view angle & Back angle 。生成思路:后视角的年轻女孩。生成咒语:young girl,back view angle,ar 16:9 。 侧视角:观察或拍摄物体或场景时从侧面的角度观察,可用于展示物体的形状和轮廓,或创造深度和距离的感觉。咒语关键词:Side view & Shoulder level view 。生成思路:侧视角的年轻女孩。生成咒语:young girl,Side view,ar 16:9 。 仰视角:观察或拍摄物体或场景时从底部的角度观察,通常会让物体看起来更为庞大和高大,具有一定的视觉冲击力和震撼效果。咒语关键词:Bottom view & Low angle view 。生成思路:仰视角的年轻女孩。生成咒语:young girl,low angle view,ar 16:9 。 俯视角。 此外,还有 Sam Altman 与 Bill Gates 关于 GPT 的未来讨论,以及 Portkey AI 网关这一连接多种 AI 模型的工具。
2024-10-12
如何在midjourney中只进行照片背景修改,而不修改人物姿态和表情
在 Midjourney 中只修改照片背景而不修改人物姿态和表情,您可以参考以下方法: 1. 得益于cref,midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果您只想关注人脸,请调低到 0。您不需要对角色原图使用/describe 来贴近目标生成角色的形象,因为cref 会帮您完成这件事情。 2. 风格复制和服装的替换,则应当用提示词(prompt)和sref,默认值 100,越高越接近参考图像的风格。 3. 如果遇到“形似而神不似”的问题,即 MJ 直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距,您可以按照以下步骤操作: 使用/settings 确保您处于模式并且 Remix 设置为打开。 选择带有您想要更改的面部的图像。使用将其从网格中分离出来,然后选择。 由于您已经开启了 Remix,您将能够编辑提示。 从提示中删除cref 和cw。一旦删除了它们,修改提示以对面部进行更改。例如,您可以慷慨地选择面部的下半部分,并添加“清洁剃须”来除去胡须。您可以尝试使用小的负权重,例如 tattoos::0.5 来移除纹身。 注意:当您对更改满意时,请确保不要再次添加cref 到提示中!一旦添加回来,“面部交换”将再次发生,那些不需要的属性将重新出现。 4. 有时,Midjourney 在正确将角色放置在背景中时会遇到一些困难。如果结果不连贯(例如,您看到头部朝后或图像被奇怪地裁剪),请尝试将 stylize增加到 800 1000。您也可以尝试将cw 同时降低到低于 100 的值,视情况而定。
2024-10-10
lora是什么
Lora 全称 LowRank Adaptation Models,即低阶自适应模型。它的作用在于影响和微调画面,能够再现人物或物品的特征。大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原模型中插入新的数据处理层的方式,避免了修改原有模型参数。LORA 模型训练是用特定特征替换大模型中的对应元素,从而生成不同于底模的图片。Lora 训练较为轻量化,所需显存较少,硬件门槛显存达到 6G 即可开启训练。例如,有利用新版 SDXL 生成的如针线娃娃的 lora,还有如“KIDS ILLUSTRATION”这样用于生成儿童绘本风格插画的 lora 等。
2024-11-01
Lora模型训练数据集
以下是关于 Lora 模型训练数据集的相关内容: 创建数据集: 1. 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 2. 在数据集一栏中,点击右上角创建数据集,输入数据集名称。 3. 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片(之后可在 c 站使用自动打标功能),还可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 4. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 5. 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,能预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 用 SD 训练一套贴纸 LoRA 模型的工作流: 1. 原始形象:MJ 初步产出符合设计想法的贴纸原始形象。 2. 二次加工:完成贴纸的白色边线等细节加工。 3. 处理素材:给训练集图片打 tag,修改 tag。 4. 训练模型:将上述处理好的数据集做成训练集,进行训练。 用 SD 训练一套贴纸 LoRA 模型的原始形象:MJ 关键词: A drawing for a rabbit stickers,in the style of hallyu,screenshot,mori kei,duckcore plush doll art exaggerated poses,cry/happy/sad/...ar 3:4 niji 5 style cute s 180 。会得到不同风格的贴图,我们可以先看看自己喜欢哪一种。出图过程可以有意识地总结这一类贴图的特征,比如都是可爱的兔子,有不同的衣服和头饰,都有一双大大的卡通眼睛,会有不同的面部表情。 注意事项: 1. 关键词中限制了颜色,因此 MJ 生成的图片会一种情绪对应一种颜色,所以同一种情绪最好多生成几张不同色系的,可以减少后续训练中模型把情绪和颜色做挂钩(如果需要这样的话,也可以反其道而行之)。 2. 数据集中正面情绪与负面情绪最好比例差不多,如果都是正面积极的,在出一些负面情时(sad,cry)的时候,可能会出现奇怪的问题(如我们训练的是兔子形象,但 ai 认知的 sad 可能是人的形象,可能会出现人物特征)。 3. 如果训练 256266 大小的表情包,这样的素材就已经够用了。如果要训练更高像素的图片,则需要进一步使用 MJ 垫图和高清扩展功能。 高清化: 左(256)→右(1024),输入左图,加入内容描述,加入风格描述,挑选合适的,选出新 30 张图片(卡通二次元类型的 lora 训练集 30 张差不多,真人 60100 张)。
2024-10-22
Lora模型训练
以下是关于 Lora 模型训练的相关内容: 一、用 SD 训练一套贴纸 LoRA 模型的要点 1. 训练数据集准备:包括训练素材处理、图像预处理、打标优化。 2. 训练环境参数配置:选择本地或云端训练环境,进行训练环境配置和训练参数配置。 3. 模型训练:基于 kohyass 训练模型。 4. 模型测试:通过 XYZ plot 测试模型。 二、郑敏轩:Flux 的 Lora 模型训练 1. 所需模型下载:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意事项: 不使用时,模型放置位置不限,只要知道路径即可。 训练时,建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 三、100 基础训练大模型 1. 步骤一·创建数据集 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 在数据集一栏中,点击右上角创建数据集,输入数据集名称。 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 2. 步骤二·Lora 训练 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,选择上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数,若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 可按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条。 训练完成后会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。
2024-10-22
文生图lora微调
以下是关于文生图 lora 微调的详细内容: 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:基于生成内容寻找重叠的 lora,以控制图片效果和质量,可参考广场上优秀帖子中使用的 lora。 ControlNet:可控制图片中特定图像,如人物姿态、生成特定文字或艺术化二维码等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,不用管语法,单词、短语间用英文半角逗号隔开。 负向提示词 Negative Prompt:同样用英文写要避免的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++ 2M Karras 较多,也可参考 checkpoint 详情页上模型作者推荐的采样器。 采样次数:选 DPM++ 2M Karras 时,采样次数通常在 30 40 之间。 尺寸:根据个人喜好和需求选择。 以下是一个简笔水彩风格插画的示例: 使用大模型“Flat 2D Animerge”,适合生成卡通动漫图片,官方建议 CFG 值在 5 或 6(使用动态阈值修复可拉到 11)。搭配两个 lora,“Chinese painting style”可增加中国画水彩风格效果,权重设为 0.4;“Crayon drawing”可添加简单线条和小孩子笔触,权重设为 0.8。将图片丢到标签器中反推关键词,发送到“文生图”。在正向提示词末尾添加这两个 lora,尺寸按参考图设置,重绘幅度开 0.5 让 AI 更自由发挥,若想更接近原图可降低数值。将图放入 ControlNet 中,选择 tile 模型,权重为 0.5,控制模式选择“更注重提示词”。
2024-10-05
AI 增量训练 Lora
以下是关于 AI 增量训练 Lora 的相关知识: 参数理解: 1. 学习步数:指 AI 对每张图片的学习次数。二次元图片的 repeat 一般在 10 15,写实人物图片的 repeat 一般在 30 50,真实世界的景观场景可能要达到 100。理论上讲,图片精细度越高,学习步数越高。 2. 循环次数:AI 将所有图片按照学习步数学习一轮为一次循环,循环次数一般在 10 20 之间。次数并非越多越好,过多会导致过拟合,即画什么都和样图一样。 3. 效率设置:主要控制电脑的训练速度。可保持默认值,也可根据电脑显存微调,但要避免显存过载。 总的训练步数为:图片张数×学习步数×循环次数。 此外,沃尔夫勒姆提到人工智能是基于机器学习(通常通过神经网络实现),根据给出的示例进行增量训练,且这些示例包括大量人类生成的科学文本等,或者关于世界上发生的事情的实际经验。
2024-09-13
Lora简单介绍
Lora 全称 LowRank Adaptation Models,即低阶自适应模型,其作用在于影响和微调画面,能够再现人物或物品的特征。大模型的训练通常复杂且对电脑配置要求高,而 LoRA 采用在原模型中插入新的数据处理层的方式,避免了修改原有模型参数。LORA 模型训练是用特定特征替换大模型中的对应元素,从而生成不同于底模的图片,比如固定的人物相貌、特定的服装或者特定的风格。Lora 训练较为轻量化,所需显存较少,硬件门槛显存达到 6G 即可开启训练。 同时,模型微调方面,提供了 LoRA 微调和全量参数微调代码,关于 LoRA 的详细介绍可参考论文“。 此外,还有利用新版 SDXL 生成的如针线娃娃这样的 lora,它可以把一些常见形象制作成毛线编制的样子,需要使用 SDXL1.0 的模型,触发词是 BJ_Sewing_doll。
2024-09-09
ai生成配图
以下是关于 AI 生成配图及相关内容的信息: 如果您想用 AI 把小说做成视频,大致的制作流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,关于 Runway 生成 AI 动画,可以使用图片+文字描述功能,将 MJ 生成的图片增加对应的动态描述,输入 Runway,同时增加镜头变换的设置(具体教程看)。悦音 AI 配音具有旁白质感,如磁性浑厚、大片质感、娓娓道来。
2024-11-17
用AI生成动画的教程
以下是用 AI 生成动画的一些教程: 1. 端午节动态视频: 可以使用即梦或 runway 等工具。如果要字不动,可以先在剪映里添加文字 logo 素材。 先什么关键词都不写,如果效果不满意,再添加关键词。 将视频放入剪映,放上 PNG 透明底图后导出。 2. Runway 生成 AI 动画: 使用图片+文字描述功能,将 MJ 生成的图片增加对应的动态描述,输入 Runway,同时增加镜头变换的设置。具体教程可查看。 3. 利用 AI 批量生成、模仿和复刻《小林漫画》(内含 coze 搭建视频教程): 作者景淮会带着大家试着搭建一个扣子(Coze)工作流来直接生成文字和图片。本文会按照需求分析、扣子搭建、扣子使用链接分享、批量生产图片、总结的顺序进行。
2024-11-17
AI 语音生成
以下是一些与 AI 语音生成相关的信息: 人工智能音频初创公司: :将书面内容转化为引人入胜的音频,并实现无缝分发。 :提供专业音频、语音、声音和音乐的扩展服务。 (被 Spotify 收购):提供完全表达的 AI 生成语音,带来引人入胜的逼真表演。 :利用合成媒体生成和检测,带来无限可能。 :一键使您的内容多语言化,触及更多人群。 :生成听起来真实的 AI 声音。 :为游戏、电影和元宇宙提供 AI 语音演员。 :为内容创作者提供语音克隆服务。 :超逼真的文本转语音引擎。 :使用单一 AI 驱动的 API 进行音频转录和理解。 :听起来像真人的新声音。 :从真实人的声音创建逼真的合成语音的文本转语音技术。 :生成听起来完全像你的音频内容。 游戏开发中的 AI 语音生成工具: Coqui Studio:https://coqui.ai Bark:https://github.com/sunoai/bark Replica Studios:https://replicastudios.com 生成式 AI 在游戏领域的机会: 许多创业公司正在尝试创造人工智能生成的音乐,如 Soundful、Musico、Harmonai、Infinite Album 和 Aiva。 对话&语音方面,很多公司试图为游戏中的人物创造逼真的声音,包括 Sonantic、Coqui、Replica Studios、Resemble.ai、Readspeaker.ai 等。 即时对话生成,角色可以对玩家的行为做出充分反应。 角色扮演,使用与玩家的化身相匹配的生成的声音保持幻想。 控制音效,可控制声音的细微差别。 本地化,对话可翻译成任何语言并以同样的声音说话,如 Deepdub 专注于这个细分市场。
2024-11-17
什么工具/模型/API 可以根据宠物照片生成数字宠物 可以有简单的活动。
以下是一个可以根据宠物照片生成数字宠物并具有简单活动的工具/模型/API: 出门问问 Mobvoi 的照片数字人工作流及语音合成(TTS)API。 出门问问是一家以生成式 AI 和语音交互为核心的人工智能公司,为全球多个国家提供面向创作者的 AIGC 工具、AI 政企服务,以及 AI 智能硬件。致力于打造国际领先的通用大模型,通过 AI 技术、产品及商业化三位一体发展,致力成为全球 AI CoPilot 的引领者。 在 ComfyUI 全球领导力峰会上,特意搭建了数字人 workflow(照片数字人驱动),仅需上传一张照片,输入一段文字或者上传一段音频,就可以生成短视频让“照片开口说话”。本次活动特意提供了免费 api 额度及操作指南给大家进行体验。以下是一些不同风格的照片驱动效果展示:
2024-11-16
我想要让ai生成svg代码,如何保证其生成质量
目前知识库中没有关于如何保证让 AI 生成 SVG 代码质量的相关内容。但一般来说,要保证 AI 生成 SVG 代码的质量,可以从以下几个方面考虑: 1. 清晰明确地向 AI 描述您的需求,包括图形的特征、尺寸、颜色、线条样式等具体要求。 2. 提供足够的示例或参考资料,让 AI 更好地理解您期望的代码风格和质量标准。 3. 对生成的代码进行多次测试和验证,检查其在不同场景下的显示效果和兼容性。 4. 尝试使用不同的 AI 模型或工具,并比较它们生成的 SVG 代码质量,选择最适合您需求的。
2024-11-15
我想要让ai生成svg图片,如何保证其生成质量
要保证 AI 生成 SVG 图片的质量,您可以参考以下方法: 在使用 AI 生成图片时,可能会遇到即使输入相同关键词,生成的图片仍有很强随机性的情况。为了让生成的图片更加可控,可以利用 seed 参数进行反向生成。 首先,从官方文档中了解 seed 参数的作用:Midjourney 会用一个种子号来绘图,把这个种子作为生成初始图像的起点。种子号为每张图随机生成,但可以使用 Seed 或 same eseed 参数指定。使用相同的种子号和提示符将产生类似的结尾图片。详细参数可查看官方文档: 默认情况下,种子是随机给定的。若想要获得比较相似的图,需要将 seed 固定下来。简单来说,使用时在关键词后添加 seed 参数即可,具体数字在 0–4294967295 范围内均可。例如:caiyunyiueji is a cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k seed 8888 这样就能保证每次生成的都是相同的图。此外,还可以反向利用这个特性对已经确定的效果图进行微调。比如当发现有一张图已比较接近目标,还需要一些微调时,可以利用确定图片的 seed,在此基础上添加新的关键词来实现。
2024-11-15