直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

stable diffusion 绘本一致性

回答

Stable Diffusion 绘本一致性相关知识如下:

工作原理: Stable Diffusion 生成随机噪声,并逐步更改噪声以努力获得与提示一致的图像。其基本结构包括 encoder + diffusion + decoder 的流程。Checkpoint 记录某个训练周期整个 diffusion 及可能的 encoder decoder 的参数,VAE 是 encoder decoder 的参数,在 SDXL 等大型模型中需配对以避免花屏现象。LoRA 模型训练时先冻结 SD 模型权重,然后在 U-Net 结构中注入 LoRA 模块并与 CrossAttention 模块结合,只对部分参数微调。

相关论文

影响生成结果的因素: 影响生成的图与他人不同的因素包括随机数种子(Seed)。随机数种子控制最底层形状,决定照片基础轮廓,如人物外形轮廓、姿势和站位等。当随机数为“-1”时,SD 会随机生成种子。可在点击生成的照片下面的一大串英文中查看 seed 值。只有所有参数包括随机数种子都与他人相同时,才能生成相似的照片。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

原理:Stable diffusion不同模型变量的work pipeline:ckpt、lora等怎么work together的?

The Illustrated Stable Diffusion – Jay Alammar – Visualizing machine learning one concept at a time.(jalammar.github.io)贴博客是因为它解释得很清楚很好了。其次要了解Stable Diffusion的工作原理是生成随机噪声,并一步一步地更改噪声,以尝试并努力获得与提示一致的图像。work like thistext2img和img2img1.text2img2.img2img现在才进入正题!有以上img2img、text2img的流程可以看到,基本结构就是encoder+diffusion+decoder的流程。这是解释以上过程的论文的流程图。Checkpoint就是记录某个训练周期这整个diffusion/可能加上encoder decoder的参数。vae就是encoder decoder的参数,在SDXL等大型模型里vae要配对不然容易出现中间diffusion过程正常后面最后decode的时候花屏现象。接下来看ControlNet。这里的unet结构就是上面论文图中4个QKV的两片甲板的。左上这个prompt进入text encoder在每个模块上加入text information(token embeddings)。这里embedding模型就是这么用的咯,像字典一样。对token取对应的embedding。Time encoder是为了记录noise amount,第几步step。右边是controlnet插入。LoRA模型的训练逻辑是首先冻结SD模型的权重,然后在SD模型的U-Net结构中注入LoRA模块,并将其与CrossAttention模块结合,并只对这部分参数进行微调训练。也就是以上的sd encoder block和sd decoder block的权重参数进行调整。

论文收集

|文本|id|内部分类|Arxiv|GitHub|项目网站|Hugging Face|原理图|效果图|合集|创建人|创建时间|最后更新时间|简介|use|父记录|<br>|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|<br>|AnyDoor||consistency|[https://arxiv.org/abs/2307.09481](https://arxiv.org/abs/2307.09481)|[https://github.com/ali-vilab/AnyDoor](https://github.com/ali-vilab/AnyDoor)|[https://github.com/ali-vilab/AnyDoor](https://github.com/ali-vilab/AnyDoor)|[https://huggingface.co/spaces/xichenhku/AnyDoor-online](https://huggingface.co/spaces/xichenhku/AnyDoor-online)|||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|Mix-of-Show||consistency|[https://arxiv.org/abs/2305.18292](https://arxiv.org/abs/2305.18292)|[https://github.com/TencentARC/Mix-of-Show](https://github.com/TencentARC/Mix-of-Show)|[https://showlab.github.io/Mix-of-Show/](https://showlab.github.io/Mix-of-Show/)||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|LyCORIS||consistency|[https://arxiv.org/abs/2309.14859](https://arxiv.org/abs/2309.14859)|[https://github.com/KohakuBlueleaf/LyCORIS](https://github.com/KohakuBlueleaf/LyCORIS)|||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|Res-Adapter||enhancement|[https://arxiv.org/abs/2403.02084](https://arxiv.org/abs/2403.02084)|[bytedance/res-adapter:Official implementation of"ResAdapter:Domain Consistent Resolution Adapter for Diffusion Models".(github.com)](https://github.com/bytedance/res-adapter)|[https://res-adapter.github.io/](https://res-adapter.github.io/)||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|X-Adapter||enhancement|[https://arxiv.org/abs/2312.02238](https://arxiv.org/abs/2312.02238)|[https://github.com/showlab/X-Adapter](https://github.com/showlab/X-Adapter)|[https://showlab.github.io/X-Adapter/](https://showlab.github.io/X-Adapter/)||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||

教程:超详细的Stable Diffusion教程

为什么有时候我们跟别人用的大模型、关键词、Lora还有其他参数都一样可偏偏生成出来的图就是不一样?那是因为影响照片的因素还有一个“随机数种子(Seed)”随机数种子控制的是最底层的形状,就相当于我们画画最开始的线稿它会决定我们照片的基础轮廓,相当于决定了我们照片人物的外形轮廓,包括姿势和站位等当随机数为“-1”的时候,SD就会随机给你的照片生成一个种子,这个种子就理解成不一样的线稿就可以怎么看自己照片用的seed值(随机数种子)是什么呢?在我们点击生成的照片下面,有一大串英文,里面的seed值就是我们当前生成照片的seed值只有当我们所有参数,包括随机数种子跟别人的照片都一样时,我们才能生成跟别人差不多一样的照片。

其他人在问
stable diffusion快速
以下是关于如何快速上手 Stable Diffusion 的相关内容: 一分钟生成自己的二次元造型: 利用图生图功能,使用自己的照片生成二次元照片。 更换能生成二次元照片的大模型。 输入正面关键词,如“高质量,高清画质,大师杰作,极致的细节,8k,主体就是一个女孩”。 复制前面提供的负面关键词。 在空白处上传需要生成的照片。 调整重绘幅度,生成二次元照片时拉到 0.6 0.8 左右。 写好关键词,让你事半功倍: 先写质量词,然后描述照片主体及细节,如“一个女孩,非常精致的五官,极具细节的眼睛和嘴巴,长发,卷发,细腻的皮肤,大眼睛”,并翻译成英文。 描述人物服装,如“白色的毛衣、项链(white sweater,necklace,)”。 加上其他元素,如背景、天气、照片姿势、构图等,如“在街上,阳光,上半身照片(street,Sunshine,upper body photos,)”。 推荐一行一行分开类型写关键词,每行末尾加上英文逗号。 按照以上步骤和方法,您可以更快速地掌握 Stable Diffusion 的使用技巧。
2024-10-18
stable diffusion
稳定扩散(Stable Diffusion)的运作原理如下: 消除图像中的噪点:如果拍照太暗会产生噪点,而稳定扩散能“清理”图像。它比手机图像编辑器的噪点消除滑块复杂得多,它了解世界的样子和书面语言,并以此指导噪点消除过程。例如,给它一幅以 H.R. Giger 风格描绘的外星人弹吉他的初始图像,它能像熟练的平面艺术家一样进行清理和创作。 推理步骤:稳定扩散是逐步去除噪点的,通过“推理步骤”滑块可以控制。 起始方式:为生成艺术,给稳定扩散提供的初始图像实际上只是纯噪点,然后谎称这是一幅特定风格的画让其清理。从简单层面看,它作为计算机程序会执行任务;从深层次看,它基于统计数据,估计所有选项的概率,即使没有正确答案,每次给不同的纯噪点图像都会创作出不同的作品。 此外,UNET 是从噪音中生成图像的主要组件,在预测过程中通过反复调用 UNET,将其预测输出的 noise slice 从原有的噪声中去除,得到逐步去噪后的图像表示。Stable Diffusion Model 的 UNET 包含约 860M 的参数,以 float32 的精度编码大概需要 3.4G 的存储空间。CLIP 将用户输入的 Prompt 文本转化成 text embedding,UNET 进行迭代降噪,在文本引导下进行多轮预测。稳定扩散最初称为潜在扩散模型,在传统扩散模型中存在计算效率问题,稳定扩散是为解决此问题提出的。ComfyUI 中存放路径为 models/checkpoints/,有 SD 基础预训练模型,如 SD1.5、SDXL 以及微调模型,训练方法有 DreamBooth 等,格式有 EMAonly & pruned 和 Full 两种。
2024-10-10
找了好久也没找到,记得老师是建筑设计师,设计了在深圳大楼,做了有关于 stablediffution 的分享,你能帮我找到是哪个视频吗
以下是为您找到的相关视频信息: 1. 爆肝博主 ZHO 去年 10 月份发布的一系列围绕 Stable Diffusion 的系统整理视频,深入浅出地介绍了整个生态的发展和梳理,包括论文原理和应用技术等多方面内容,分了四集,一共 4 小时,超 5 万字。系列导览: 认识 Stable Diffusion、一周年回顾和 SD 生态圈三方面展开,形成基础认识。 从 AIGC 浪潮聚焦到扩散的系统梳理,从理论的角度理解扩散模型如何实现 0 到 1 的跨越。 将围绕 SD 展开从模型到生态的全面盘点,一起探究 SD 的创新与未来。 对各类 GUI 的盘点、聚焦 ComfyUI,从设计到实际操作做全面梳理。系列视频:b23.tv/NVRRqqQ 2. EP.3 IP Adapter 对话阿文,阿文老师介绍自己是发布会 PPT 设计师,2022 年 4 月开始关注 diffusion 领域,早期跟了很多工具的发布以及测评,比如 DallE 和 Stable Diffusion,一直尝试把 AI 工具用到平面工作流当中。
2024-10-09
stable diff
以下是关于 Stable Diffusion 的相关信息: 中文大模型基准测评 2023 年度报告中未直接提及 Stable Diffusion 的相关内容。 有关于 Stable Diffusion 安装过程中常见报错解决方法的教程: 目录不正确报错:: 显存不足报错:File “D:\\openai.wiki\\stablediffusionwebui\\venv\\lib\\sitepackages\\torch\\nn\\modules\\module.py”,line 664,in _apply 、param_applied = fnIf reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF 、Stable diffusion model failed to load,exiting 、请按任意键继续。 。解决方法包括换个好一些的显卡(至少英伟达 2060 以上),或者开启低显存模式(在 stablediffusionwebui 文件夹下找到 webuiuser.bat,用文本或代码编辑器打开该文件夹)。
2024-09-30
如何 学习stable diffusion
学习 Stable Diffusion 可以参考以下内容: 学习 Stable Diffusion 的提示词: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 学习 Stable Diffusion Web UI: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录。 运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。 尝试生成图像,观察不同参数对结果的影响。 学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。 学习如何导入自定义模型、VAE、embedding 等文件。 掌握图像管理、任务管理等技巧,提高工作效率。 通过这些步骤,相信您可以快速上手 Stable Diffusion 及其 Web UI,开始探索 AI 绘画的乐趣。后续还可以深入学习 Stable Diffusion 的原理,以及在不同场景中的应用。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-24
tensorflow和stable diffusion的结合
TensorFlow 和 Stable Diffusion 的结合涉及以下方面: Stable Diffusion 的基本原理: 生成随机噪声,并逐步更改噪声以努力获得与提示一致的图像。 基本结构是 encoder + diffusion + decoder 的流程。 Checkpoint 记录某个训练周期整个 diffusion 及可能的 encoder decoder 的参数。 VAE 是 encoder decoder 的参数,在大型模型中需配对以避免花屏现象。 Stable Diffusion 的技术原理: 核心技术来源于 Patrick Esser 和 Robin Romabach,基于潜扩散模型(Latent Diffusion Model)研究。 使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示,捕捉语义信息并与图像空间对齐。 利用扩散模型将随机噪声图像逐渐变换为目标图像,从训练数据中学习概率分布并采样新数据。 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每步变换的概率分布,以根据文本指导收敛并保持图像质量。 Stable Diffusion 训练数据集制作: 设置 max_data_loader_n_workers 大于等于 2 加速数据处理。 数据标注流程包括使用 BLIP 进行自然语言自动标注和使用 Waifu Diffusion v1.4 模型自动标注 tag 标签。 调用 Waifu Diffusion v1.4 模型需安装特定版本(2.10.0)的 TensorFlow 库,可通过命令行检查与安装适配。
2024-09-23
请问国内用什么ai制作绘本是免费且角色统一的?
目前国内有一些可用于制作绘本的免费 AI 工具和相关资源,以下为您提供部分参考: 您可以根据自己的需求选择适合的工具和资源来制作绘本。
2024-09-26
想知道目前市面上做AI绘本的有哪些产品
目前市面上做 AI 绘本的产品信息较少,但以下为您提供一些相关领域的类似产品供参考: 在 AI 虚拟陪伴方面,有以下产品和项目: 1. Character.ai:这是一个 AI 虚拟陪伴平台,用户可以与数百个 AI 驱动的角色进行信息交流,包括名人、动漫角色等。用户还可以创建自己的角色,赋予他们描述、图像、个性,甚至更高级的特性。 2. Replika:这是一款 AI 虚拟陪伴应用,用户可以设计理想的伴侣,随着时间的推移,你们的关系会有所发展。您的 Replika 会存储记忆,以便在未来的对话中参考,甚至可以给您发送照片。 3. Talkie:这是一款 AI 虚拟陪伴应用,主打情感路线。Talkie 中设计有大量的 npc,游戏和休闲娱乐体验感更强,每个 npc 即带着一个自己的剧情体系,在与角色交流过程中会触发抽取卡牌机会。 在制作 PPT 方面,有以下 AI 产品: 1. Gamma:这是一个在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片。它支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。https://gamma.app/ 2. 美图 AI PPT:美图 AI PPT 是由知名图像编辑软件“美图秀秀”的开发团队推出的 AI PPT 工具。它允许用户通过输入简单的文本描述来生成专业的 PPT 设计。美图 AI PPT 可能包含了丰富的模板库和设计元素,用户可以根据自己的需求选择不同风格和主题的模板,快速打造出适合行业分析、工作汇报、创意设计方案等多种场合的 PPT。https://www.xdesign.com/ppt/ 3. Mindshow:Mindshow 是一款 AI 驱动的 PPT 辅助工具,它可能提供了一系列的智能设计功能,如自动布局、图像选择和文本优化等,以帮助用户更高效地创建演示文稿。Mindshow 的目标是通过简化设计流程,让用户能够专注于内容的表达和创意的发挥,而不是繁琐的设计工作。它可能还包括了一些互动元素和动画效果,以增强演示文稿的吸引力。https://www.mindshow.fun/ 在图生图方面,有以下产品: 1. Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果超级好。 需要注意的是,这些 AI 模型通过组合技术如扩散模型、大型视觉转换器等,可以根据文本或参考图像生成具有创意且质量不错的相似图像输出。但仍有一些局限,如偶尔会出现性能不稳定、生成内容不当等问题。 以上内容由 AI 大模型生成,请仔细甄别。
2024-08-13
想知道目前市面上做AI绘本的有哪些公司
目前市面上做 AI 绘本的公司有: 阿里:通义千问大模型的问答能力不错,能满足绘本故事创作。通义万相在文生图方面,生图效果还可以但不稳定,提示词有难度,文字理解能力较弱,每日有 50 灵感值限制出图次数,但有相似图像生成和图像风格迁移功能。 字节跳动:Dreamina 有很多实用功能,如基本的扩图和消除笔功能,可直接用自然语言出图且理解到位,对新手友好,文生图限时免费且无出图次数限制。
2024-08-13
用AI做儿童教育绘本
以下是关于用 AI 做儿童教育绘本的相关信息: 1. 扣子是新一代 AI 应用开发平台,无论是否有编程基础,都可在其上快速搭建基于大模型的各类 Bot,并将 Bot 发布到各个社交平台、通讯软件或部署到网站等其他渠道。您可以用扣子搭建一个儿童故事书,比如取名为「漫画小书虫📚🐛」。原文链接:https://developer.volcengine.com/articles/7386826719224659987 作者:用户 4999846502246 2. 在 AI + 教育的探索实践中,家长可以引导孩子语言表达,在父母的监管下让 AI 工具和孩子互动。比如,引导孩子回答出故事的要素:背景、人物、地点、在做什么等。用 GPT 修改孩子的表达,输入 Gizmo,即可自动生成带文本的插画。能创作专属小绘本的 Gizmo 的作者是作者研究生同学,外研社的教师培训师@Strawberryqueen。相关链接:https://chat.openai.com/g/guizDeOxs7gushichahuajia 。同样,身边也有越来越多的家庭开始实践。 3. IMAGINaiTION 是一个 AI 驱动的个性化儿童故事应用。这个应用旨在提高儿童的语言能力、创造力、情感发展和认知能力。其核心特点包括:构建您的冒险,可根据孩子的兴趣和偏好定制故事;创建您的角色,能选择特点、特征和个性,将您独特的主角栩栩如生;打造您的情节,可制定一个激动人心的故事情节,或者让 AI 自行发挥创意;设定场景,能选择一个场景,从魔法森林到未来城市;添加额外的魔法,可自定义配角、魔法元素或惊喜,创造一个独特的故事。这个应用主要面向 5 岁以下儿童的父母设计,对于年龄超出此范围的具有神经多样性能力的儿童也是宝贵的工具,它提供适应不同发展阶段儿童的内容。链接:
2024-08-09
怎么做英语儿童绘本
英语儿童绘本的制作需要考虑以下几个方面: 1. 故事内容:选择一个适合儿童的故事,确保内容简单易懂、富有教育意义。 2. 绘画风格:根据故事内容选择适合的绘画风格,如卡通、手绘、水彩等。 3. 角色设计:根据故事内容设计角色形象,注意角色的特征和个性。 4. 场景描绘:根据故事内容描绘场景,注意场景的细节和氛围。 5. 文字描述:用简单易懂的英语描述故事内容,注意文字的韵律和节奏。 6. 绘本制作:将绘画和文字整合到一起,制作成绘本。 在制作英语儿童绘本时,可以使用一些工具和技术,如绘画软件、文字处理软件、印刷技术等。同时,要注意绘本的质量和安全性,确保绘本适合儿童阅读。
2024-05-19
有写ai绘本的工作流吗
创建AI绘本是一个涉及创意和技术的复杂过程,通常包括以下几个关键步骤: 1. 故事构思:首先,你需要构思一个故事。这可能涉及确定主题、角色、情节和故事想要传达的信息。 2. 角色设计:设计故事中的角色,包括它们的外观、个性和故事中的作用。 3. 场景规划:决定故事发生的环境和背景,以及每个场景的视觉元素。 4. 脚本编写:编写故事的文本内容,包括对话和叙述。 5. AI辅助写作:利用AI工具辅助生成文本内容,如使用AI写作助手来生成故事情节或对话。 6. 图像生成:使用AI图像生成工具,如DALLE或Stable Diffusion,根据故事内容创建插图。你需要提供详细的描述来指导AI生成符合故事场景的图像。 7. 布局设计:将文本和图像组合起来,设计每一页的布局,确保故事流畅且视觉上吸引人。 8. 交互元素:如果绘本是数字格式的,可能需要添加交互元素,如动画、声音效果或互动游戏。 9. 用户测试:让目标读者群体阅读绘本,并收集他们的反馈,以便进行改进。 10. 修订和完善:根据用户测试的反馈,对故事、图像和布局进行必要的修订。 11. 发布准备:准备绘本的最终版本,包括格式转换(如从数字格式转换为打印格式)和版权处理。 12. 发布和营销:将绘本发布到适当的平台,并进行营销推广以吸引读者。 在整个工作流中,AI可以在多个环节发挥作用,从辅助故事创作到自动生成插图,再到最终的交互设计。然而,AI目前还不能完全取代人类的创意和审美判断,因此人类的参与和创意指导是不可或缺的。
2024-04-17
Stable Diffusion官网
以下是 Stable Diffusion 的相关信息: Stable Diffusion 系列资源: SD 1.4 官方项目: SD 1.5 官方项目: SD 2.x 官方项目: diffusers 库中的 SD 代码 pipelines: SD 核心论文: SD Turbo 技术报告: 教程目录: 1. Stable Diffusion 系列资源 2. 零基础深入浅出理解 Stable Diffusion 核心基础原理 2.1 通俗讲解 Stable Diffusion 模型工作流程(包含详细图解) 2.2 从 0 到 1 读懂 Stable Diffusion 模型核心基础原理(包含详细图解) 2.3 零基础读懂 Stable Diffusion 训练全过程(包含详细图解) 2.4 其他主流生成式模型介绍 3. Stable Diffusion 核心网络结构解析(全网最详细) 3.1 SD 模型整体架构初识 3.2 VAE 模型 3.3 UNet 模型 3.4 CLIP Text Encoder 模型 3.5 SD 官方训练细节解析 4. 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解) 4.1 零基础使用 ComfyUI 搭建 Stable Diffusion 推理流程 4.2 零基础使用 SD.Next 搭建 Stable Diffusion 推理流程 4.3 零基础使用 Stable Diffusion WebUI 搭建 Stable Diffusion 推理流程 目前 Stable Diffusion WebUI 可以说是开源社区使用 Stable Diffusion 模型进行 AI 绘画最热门的框架。是 AI 绘画领域最为流行的框架,其生态极其繁荣,非常多的上下游插件能够与 Stable Diffusion WebUI 一起完成诸如 AI 视频生成,AI 证件照生成等工作流,可玩性非常强。接下来,咱们就使用这个流行框架搭建 Stable Diffusion 推理流程。首先,我们需要下载安装 Stable Diffusion WebUI 框架,我们只需要在命令行输入如下代码即可。安装好后,我们可以看到本地的 stablediffusionwebui 文件夹。下面我们需要安装其依赖库,我们进入 Stable Diffusion WebUI 文件夹,并进行以下操作。和 SD.Next 的配置流程类似,我们还需要配置 Stable Diffusion WebUI 的 repositories 插件,我们需要运行下面的代码。如果发现 repositories 插件下载速度较慢,出现很多报错,don't worry,大家可以直接使用 Rocky 已经配置好的资源包,可以快速启动 Stable Diffusion WebUI 框架。Stable Diffusion WebUI 资源包可以关注公众号 WeThinkIn,后台回复“ WebUI 资源”获取。 4.4 零基础使用 diffusers 搭建 Stable Diffusion 推理流程 4.5 Stable Diffusion 生成示例 5. Stable Diffusion 经典应用场景 5.1 文本生成图像 5.2 图片生成图片 5.3 图像 inpainting 5.4 使用 controlnet 辅助生成图片 5.5 超分辨率重建 6. 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解) 6.0 Stable Diffusion 训练资源分享 6.1 Stable Diffusion 模型训练初识 6.2 配置训练环境与训练文件 6.3 SD 训练数据集制作 6.4 Stable Diffusion 微调(finetune)训练
2024-09-18
stable diffusion可以用macbook 13来运行吗?配置够吗
Stable Diffusion(简称“SD”)的运行对电脑配置有一定要求。对于 Windows 系统: 显卡:必须是 NVIDIA(俗称 N 卡)。 专用 GPU 内存:4GB 勉强可以跑动 SD,出图时间较长;6GB 出一张图时间为 20 50 秒,大部分功能可用;8GB 5 20 秒出一张图,所有功能基本开放。 电脑运行内存:8GB 以上。 电脑系统:Win10 或者 Win11。 对于 Mac 系统,可以查看以下视频进行一键安装:https://www.bilibili.com/video/BV1Kh4y1W7Vg/?spm_id_from=333.788&vd_source=6f836e2ab17b1bdb4fc5ea98f38df761 但具体 MacBook 13 是否能运行及配置是否足够,还需根据上述标准进行对照检查。
2024-09-16
图片的前后一致性,如何实现
要实现图片的前后一致性,可以参考以下步骤: 1. 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 2. 确定前后图的构图风格:出第二张图时,描述其内容并在提示词中加入第一张图的构图风格(使用 iw 参数)。需注意,输入 ar、iw 等参数时,要与前面的提示词用空格隔开,否则会报错。例如:“a dog 空格 ar 16:9 空格 iw 1”。将生成的多张图中选择一张图作为垫图,通过右键图片获取其地址。按照格式将提示词、垫图关键词写入。通过微调提示词,得出满意图。 3. 确定图片角色一致性:在得到构图相同后,利用 MJ 重绘功能对画面里的角色重绘。在重绘提示词里输入 cref cw 来保证角色一致性,cref 所垫图还是用之前的图,因为它包含构图和人物两个内容。如果出现黑边,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 由于 MJ 存在不可控因素,如果要保证前后两张图画风、构图等都保持一致,可以按照上述三个确定来处理。需要注意的是,MJ 在重绘时,相较于改变整个画面结构,固定位置重绘局部内容会容易很多。先保证构图再确认角色一致性,就好比美术课画画,把背景风格做好了在固定位置添加内容,比将整个页面内容全部重绘且保证画面主题内容与参考图一样要容易,后者随机性更大。
2024-10-10
如何用midijurney生生人物一致性
在 Midjourney 中实现人物一致性,主要通过以下方式: 1. Midjourney V6 更新了角色一致性命令“cref ”。您可以根据需要重复此过程,但要注意不要过多操作,以免丧失保真度。添加角色参考图像,并选择一个“cw”以达到效果。Midjourney 能够从参考图像中识别的角色属性将与提示混合,从而创建出角色的最终表现。您可以通过使用“cw N”参数(cref 权重)来大致控制转移,其中 N 的值可以从 1 到 100,默认值为 100。“cw”参数不会改变角色参考图像的强度/影响力,其作用如下: “cw 100”的值(默认值)将捕捉整个角色。 “cw 99 到cw 1”之间的值将开始捕捉较少的整个角色,仅集中于转移面部。 “cw 0”的值将仅捕捉面部,大致类似于面部替换。且无法关闭面部的转移。 2. 在群像人物一致性保持及空间深度控制方面,以双人画面人物一致性的保持为例,分为 5 步: Step 1:将初始图(A)以及人物图(B)作为风格(sref)及人物(cref)的参考内容,提示词中需要注意: 描述好空间关系(下方画线部分),视角问题可以略过(风格参考会自带角度)。 成功输出图(C),可能会遇到女同事 Lisa 无法保持跟初始图(A)一致的问题。其中:sref 为风格参考,cref 为人物参考,cw 范围为 0 100,默认 100 但建议写上去确保万无一失。 Step 2:找到已生成的 Lisa 纯人物的图,提取图片链接(url)做准备工作。 Step 3:基于 Step 1 生成的构图清晰但人物失控的成图(C)基础上,进行重绘 Vary Region,步骤为: 框选需要被替换的人物。 然后将 Step 2 准备好的链接,贴入框内界面 cref 后面,注意先把原始的 cref(即红色部分)删掉。
2024-09-23
ipadapter的作用是什么,能实现人物的一致性吗?比如参考人物的脸部特征
IP Adapter 即图像提示词适配器,其作用包括: 能够“复刻图像”,用户输入图像可直接生成内容或风格相似的图像。 注重图像风格和语义的复刻,兼容性强,可与结构控制插件一起使用,既控制结构,也控制图像的语义和风格。 是解决角色和风格一致性的优雅方法,能够非常精准地提取风格参考图中的角色和风格特征。 在处理人物一致性方面,IP Adapter 有一定的应用,例如在相关的图生图操作中会用到。关于其使用,之前有文章介绍。同时,Midjourney 也有类似的人物一致性相关功能。
2024-08-25
lora训练的数据集没有闭眼,如何保证人物一致性前提让角色闭眼
在训练 Lora 模型以保证人物一致性的前提下让角色闭眼,以下是一些可能的方法和参考信息: 得益于对 AI 大模型微调 finetuning 技术的研究,摸索出的训练特定画风 Lora 和特定角色 Lora 的方法,对角色一致性的锁定有决定性帮助。比如完善哪吒短褂、小短裤、额前火焰印记、流苏耳饰等细微之处的统一,最终针对不同主要角色分别训练角色 Lora,保障多人同框镜头的一致性。 实现角色一致性最好的方法是使用 Lora。训练 Lora 时,至少要有 15 到 20 张图片的训练集。对于固定形象,面部五官最重要,其次是体型、服装、配饰等。收集训练集时,收集形象的头部图片很重要。对于现实人物可通过照片训练,虚构角色则要能稳定输出多张不同角度的图片以达到训练集要求。 在预处理生成 tags 打标文件后,对文件中的标签进行优化。保留全部标签适用于训练画风或省事快速训练人物模型,优点是省时省力、过拟合出现情况低,缺点是风格变化大、训练时间长。删除部分特征标签适用于训练特定角色,将特征与 Lora 做绑定,优点是调用方便、更精准还原特征,缺点是容易过拟合、泛化性降低。需要删掉如人物特征 long hair、blue eyes 这类标签,不需要删掉如人物动作 stand、run,人物表情 smile、open mouth,背景 simple background、white background,画幅位置 full body、upper body、close up 这类标签。过拟合会导致画面细节丢失、模糊、发灰、边缘不齐、无法做出指定动作、在一些大模型上表现不佳等情况。
2024-08-12
生成橘猫图片怎么保持一致性
要生成橘猫图片并保持一致性,可以参考以下方法: 1. 采用 InstantStyle 技术,通过内容与风格分离以及只往特定的风格块注入特征这两个关键方法,来实现生成图片风格的一致性。 2. 在 runway 分镜选图中,对于橘猫的描绘要注意保持角色一致性,比如胖瘦统一、衣服统一、造型统一等。 3. 利用 DALL·E 和 Custom Instrctions 的组合,将解决 DallE 生成图一致性问题的 prompt 进行优化并添加到 Custom Instrctions 中。添加之后,正常打开 DallE 会话,生成的图片会有唯一 ID。有了唯一 ID,可以进行微调图形细节和多图融合时,可以指定两张不同图片的 ID 让它们进行融合,例如“please blend image 00X and 00Y”。 希望以上信息对您有所帮助,让您能够更有效地生成具有一致性的橘猫图片。
2024-07-15
关于seed值 和风格一致性cref sref的文章
关于 seed 值和风格一致性 cref sref 的文章 在 Midjourney 中,cref 和 sref 都是用于引用图片的功能,但它们的作用和使用方式有所不同。 1. 角色参考(cref): cref 的功能是保持图像角色的一致性。根据你提供的现有角色图像的 URL,生成与之相似的角色。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girl cref\。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref): sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girl sref\。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果你想引用一张图,但只是把它作为新图的一部分,你可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 例如,如果你想引用一张图的风格,但只希望它占新图的一部分,你可以这样写提示:/imagine prompt beautiful girl sref\sw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格¹。 希望这些信息对您有所帮助!
2024-05-08