Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

stable diffusion 绘本一致性

Answer

Stable Diffusion 绘本一致性相关知识如下:

工作原理: Stable Diffusion 生成随机噪声,并逐步更改噪声以努力获得与提示一致的图像。其基本结构包括 encoder + diffusion + decoder 的流程。Checkpoint 记录某个训练周期整个 diffusion 及可能的 encoder decoder 的参数,VAE 是 encoder decoder 的参数,在 SDXL 等大型模型中需配对以避免花屏现象。LoRA 模型训练时先冻结 SD 模型权重,然后在 U-Net 结构中注入 LoRA 模块并与 CrossAttention 模块结合,只对部分参数微调。

相关论文

影响生成结果的因素: 影响生成的图与他人不同的因素包括随机数种子(Seed)。随机数种子控制最底层形状,决定照片基础轮廓,如人物外形轮廓、姿势和站位等。当随机数为“-1”时,SD 会随机生成种子。可在点击生成的照片下面的一大串英文中查看 seed 值。只有所有参数包括随机数种子都与他人相同时,才能生成相似的照片。

Content generated by AI large model, please carefully verify (powered by aily)

References

原理:Stable diffusion不同模型变量的work pipeline:ckpt、lora等怎么work together的?

The Illustrated Stable Diffusion – Jay Alammar – Visualizing machine learning one concept at a time.(jalammar.github.io)贴博客是因为它解释得很清楚很好了。其次要了解Stable Diffusion的工作原理是生成随机噪声,并一步一步地更改噪声,以尝试并努力获得与提示一致的图像。work like thistext2img和img2img1.text2img2.img2img现在才进入正题!有以上img2img、text2img的流程可以看到,基本结构就是encoder+diffusion+decoder的流程。这是解释以上过程的论文的流程图。Checkpoint就是记录某个训练周期这整个diffusion/可能加上encoder decoder的参数。vae就是encoder decoder的参数,在SDXL等大型模型里vae要配对不然容易出现中间diffusion过程正常后面最后decode的时候花屏现象。接下来看ControlNet。这里的unet结构就是上面论文图中4个QKV的两片甲板的。左上这个prompt进入text encoder在每个模块上加入text information(token embeddings)。这里embedding模型就是这么用的咯,像字典一样。对token取对应的embedding。Time encoder是为了记录noise amount,第几步step。右边是controlnet插入。LoRA模型的训练逻辑是首先冻结SD模型的权重,然后在SD模型的U-Net结构中注入LoRA模块,并将其与CrossAttention模块结合,并只对这部分参数进行微调训练。也就是以上的sd encoder block和sd decoder block的权重参数进行调整。

论文收集

|文本|id|内部分类|Arxiv|GitHub|项目网站|Hugging Face|原理图|效果图|合集|创建人|创建时间|最后更新时间|简介|use|父记录|<br>|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|-|<br>|AnyDoor||consistency|[https://arxiv.org/abs/2307.09481](https://arxiv.org/abs/2307.09481)|[https://github.com/ali-vilab/AnyDoor](https://github.com/ali-vilab/AnyDoor)|[https://github.com/ali-vilab/AnyDoor](https://github.com/ali-vilab/AnyDoor)|[https://huggingface.co/spaces/xichenhku/AnyDoor-online](https://huggingface.co/spaces/xichenhku/AnyDoor-online)|||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|Mix-of-Show||consistency|[https://arxiv.org/abs/2305.18292](https://arxiv.org/abs/2305.18292)|[https://github.com/TencentARC/Mix-of-Show](https://github.com/TencentARC/Mix-of-Show)|[https://showlab.github.io/Mix-of-Show/](https://showlab.github.io/Mix-of-Show/)||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|LyCORIS||consistency|[https://arxiv.org/abs/2309.14859](https://arxiv.org/abs/2309.14859)|[https://github.com/KohakuBlueleaf/LyCORIS](https://github.com/KohakuBlueleaf/LyCORIS)|||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|Res-Adapter||enhancement|[https://arxiv.org/abs/2403.02084](https://arxiv.org/abs/2403.02084)|[bytedance/res-adapter:Official implementation of"ResAdapter:Domain Consistent Resolution Adapter for Diffusion Models".(github.com)](https://github.com/bytedance/res-adapter)|[https://res-adapter.github.io/](https://res-adapter.github.io/)||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||<br>|X-Adapter||enhancement|[https://arxiv.org/abs/2312.02238](https://arxiv.org/abs/2312.02238)|[https://github.com/showlab/X-Adapter](https://github.com/showlab/X-Adapter)|[https://showlab.github.io/X-Adapter/](https://showlab.github.io/X-Adapter/)||||Stable Diffusion生态技术大全|AJ|2024/04/15|2024/04/15||||

教程:超详细的Stable Diffusion教程

为什么有时候我们跟别人用的大模型、关键词、Lora还有其他参数都一样可偏偏生成出来的图就是不一样?那是因为影响照片的因素还有一个“随机数种子(Seed)”随机数种子控制的是最底层的形状,就相当于我们画画最开始的线稿它会决定我们照片的基础轮廓,相当于决定了我们照片人物的外形轮廓,包括姿势和站位等当随机数为“-1”的时候,SD就会随机给你的照片生成一个种子,这个种子就理解成不一样的线稿就可以怎么看自己照片用的seed值(随机数种子)是什么呢?在我们点击生成的照片下面,有一大串英文,里面的seed值就是我们当前生成照片的seed值只有当我们所有参数,包括随机数种子跟别人的照片都一样时,我们才能生成跟别人差不多一样的照片。

Others are asking
stablediffusion学习
以下是关于系统学习 Stable Diffusion(SD)的相关内容: 学习 SD 的提示词: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,了解提示词相关指南,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 学习 Stable Diffusion Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境:安装 Git 用于克隆源代码,安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项,安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码:打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git,将源代码克隆到本地目录。 3. 运行安装脚本:进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境,等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面:复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作:了解 Web UI 的各种设置选项,如模型、采样器、采样步数等,尝试生成图像,观察不同参数对结果的影响,学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能:了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等,学习如何导入自定义模型、VAE、embedding 等文件,掌握图像管理、任务管理等技巧,提高工作效率。 通过这些步骤,相信您可以快速上手 Stable Diffusion Web UI,开始探索 AI 绘画的乐趣。后续还可以深入学习 Stable Diffusion 的原理,以及在不同场景中的应用。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-16
有什么AI模型可以制作瞬息宇宙?比如Stable Diffusion,还有别的吗?
以下是一些可以用于制作类似效果的 AI 模型: 1. Adobe Firefly:内置在各种 Adobe 产品中,不过在质量方面稍逊于 DALLE 和 Midjourney,但它只使用有权使用的图像进行训练。 2. Stable Diffusion:开源模型,可以在任何高端计算机运行。开始时需要学会正确制作提示,一旦掌握能产生很好的结果,尤其适合将 AI 与其他源的图像结合。 3. DALLE:来自 OpenAI,已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠但效果比 Midjourney 稍差。 4. Midjourney:2023 年中期最好的系统,学习曲线最低,只需键入特定指令就能得到很好的结果,需要 Discord。 此外,在游戏制作领域,已经出现了用于游戏中几乎所有资产的生成式人工智能模型,从 3D 模型到角色动画,再到对话和音乐。但文中未提及具体的模型名称。
2025-01-10
stable diffusion和国内的这些AI绘画的模型有什么区别
Stable Diffusion 和国内的 AI 绘画模型主要有以下区别: 1. 数据集和学习方式: 在线的国内模型可以访问庞大且不断更新扩展的数据集,还能实时从用户的弱监督学习中获得反馈,从而不断调整和优化绘画策略。而 Stable Diffusion 通常受限于本地设备的计算能力,其数据集和学习反馈相对有限。 2. 计算能力: 在线的国内模型能利用云计算资源进行大规模并行计算,加速模型的训练和推理过程。Stable Diffusion 受本地设备计算能力限制,性能可能不如在线模型。 3. 模型更新: 在线的国内模型可以随时获得最新的版本和功能更新,更好地适应不断变化的绘画风格和技巧。Stable Diffusion 的模型更新相对较慢。 4. 协同学习: 在线的国内模型可以从全球范围内的用户中学习,更好地理解各种绘画风格和技巧。Stable Diffusion 则只能依赖于有限的本地模型,对绘画可能性的了解可能不够全面。 例如,Niji·journey 5 在二次元角色设计领域就展现出比 Stable Diffusion 更强大的性能和实用性。同时,国内还有 DeepSeek、阿里巴巴的 Qwen2 系列、清华大学的 OpenBMB 项目等在不同方面表现出色的模型。
2025-01-08
Stable Diffusion 学习教程
以下是关于 Stable Diffusion 学习的教程: 学习提示词: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 核心基础知识: 1. Stable Diffusion 系列资源。 2. 零基础深入浅出理解 Stable Diffusion 核心基础原理,包括通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍。 3. Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析。 4. 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、生成示例。 5. Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建。 6. 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括训练资源分享、模型训练初识、配置训练环境与训练文件。 其他资源: 1. 了解 Stable diffusion 是什么: 。 2. 入门教程: 。 3. 模型网站:C 站 。 4. 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 。
2025-01-06
Stable Diffusion、comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,您可以将其想象成集成了 stable diffusion 功能的 substance designer。它具有以下特点: 优势: 对显存要求相对较低,启动和出图速度快。 生成自由度更高。 可以和 webui 共享环境和模型。 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 丰富(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 其生图原理如下: 基础模型:ComfyUI 使用预训练的扩散模型作为核心,通常是 Stable Diffusion 模型,包括 SD1.5、SD2.0、SDXL、SD3、FLUX 等。 文本编码:当用户输入文本提示时,ComfyUI 首先使用 CLIP 文本编码器将文本转换为向量表示,以捕捉文本的语义信息。 Pixel Space 和 Latent Space: Pixel Space(像素空间):图的左边表示输入图像的像素空间,在 ComfyUI 中,对应于“图像输入”模块或直接从文本提示生成的随机噪声图像,生成过程结束时会将处理后的潜在表示转换回像素空间生成最终图像。 Latent Space(潜在空间):ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点执行采样过程,通过节点调整对潜在空间的操作,如噪声添加、去噪步数等。 扩散过程(Diffusion Process): 噪声的生成和逐步还原:扩散过程表示从噪声生成图像的过程,在 ComfyUI 中通常通过调度器控制,如 Normal、Karras 等,可通过“采样器”节点选择不同调度器控制处理噪声和逐步去噪回归到最终图像。 时间步数:在生成图像时,扩散模型会进行多个去噪步,通过控制步数影响图像生成的精细度和质量。 官方链接:https://github.com/comfyanonymous/ComfyUI (内容由 AI 大模型生成,请仔细甄别)
2025-01-06
怎么学习Midjourney和stable defussion
以下是关于学习 Midjourney 和 Stable Diffusion 的一些建议: Midjourney: 优势:操作简单方便,创作内容丰富,但需要科学上网并且付费,月费约 200 多元。若只是前期了解,可先尝试。 学习途径:只需键入“thingyouwanttoseev 5.2”(注意末尾的v 5.2 很重要,它使用最新的模型),就能得到较好的结果。Midjourney 需要 Discord,可参考。 Stable Diffusion: 优势:开源免费,可以本地化部署,创作自由度高,但需要较好的电脑配置,尤其是显卡。 学习途径: 关于具体的安装方法可以去看看 B 站的【秋葉 aaaki】这个 Up 主的视频。 可以参考,了解其工作原理和基本功能。 如果走 Stable Diffusion 这条路,这里有一个很好的指南(请务必阅读第 1 部分和第 2 部分) 此外,在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如可以用 Midjourney 生成线稿,PS 稍微做一些修正,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。
2025-01-06
如果借助AI开启2周岁女儿的绘本启蒙之旅
对于借助 AI 开启 2 周岁女儿的绘本启蒙之旅,目前知识库中没有相关的直接内容。但以下是一些可能的建议: 首先,可以利用 AI 生成简单、有趣、色彩鲜艳的绘本故事,内容可以是关于小动物、日常生活中的常见事物等,以吸引孩子的注意力。 其次,通过语音交互的 AI 工具,为孩子朗读绘本故事,培养孩子的听力和语言感知能力。 还可以借助具有互动功能的 AI 应用,让孩子在观看绘本的过程中进行一些简单的操作,增强参与感。 希望这些建议能对您有所帮助。
2024-12-21
关于儿童绘本的Prompt
以下是关于儿童绘本的 Prompt 相关内容: 对于儿童故事读物,通常需要具备以下特点: 1. 语言简单易懂,使用简洁的语言和短句子,便于孩子理解和跟随故事情节。 2. 具有丰富的想象力,充满奇幻和想象,带有魔法、奇妙的生物和奇异的世界,激发孩子的创造力和想象力。 3. 包含教育意义,常包含道德教训或生活启示,帮助孩子理解基本价值观。 4. 拥有生动的角色,包括可爱的动物、勇敢的英雄、善良的公主等,以有趣的人物形象吸引孩子注意力。 5. 经常使用重复的句子或韵律感强的语言,增强记忆力和语言的音乐感。 6. 具备互动性,许多儿童故事设计为互动式,鼓励孩子参与情节发展。 7. 有明确的情节结构,故事情节简单明了,有清晰的开始、发展和结局,方便孩子跟随和理解。 8. 配有丰富的插图和图画,增强视觉吸引力,帮助孩子更好地理解和记忆故事内容。 在让 LLM 生成故事时,需要限定生成的内容主题、风格、适合人群等的 prompt,例如生成「漫画小书虫📚🐛」的相关故事,并按照格式返回文本内容,以方便后续对数据解析、配图。 此外,小七姐在 K12 领域应用中提到儿童 PBL 项目 Prompt,原始设计思路包括: 1. 作为家长,获取 10 个生活中可能的 PBL 项目主题。 2. 对感兴趣的主题进一步拓展 5 个相关主题。 3. 选择主题后,设计包含目标、项目周期、项目阶段和任务、项目评估的 PBL 项目。 4. 根据反馈优化项目。 5. 设计测试评估孩子在项目中的知识与能力、提升可能、学习风格和兴趣点。 6. 根据孩子的真实反馈设计个性化学习方案。 7. 明确家长在项目中承担的角色和提供的支持。 8. 写一封信吸引孩子参与家长设计的学习项目。 例如为一位特别喜欢识认汽车品牌、喜欢交通工具、挖掘机等工程机械车的 3 岁小朋友设计一个包含能练习中、英文的 PBL 项目式学习任务,包含项目目标、项目周期、项目阶段和任务、项目评估。 在提示简介中,提示是给 Claude 的用于引发相关输出的文本,通常以问题或指示的形式出现,Claude 回答的文本被称为“响应”,有时也被称为“输出”或“完成”。
2024-11-15
请问国内用什么ai制作绘本是免费且角色统一的?
目前国内有一些可用于制作绘本的免费 AI 工具和相关资源,以下为您提供部分参考: 您可以根据自己的需求选择适合的工具和资源来制作绘本。
2024-09-26
想知道目前市面上做AI绘本的有哪些产品
目前市面上做 AI 绘本的产品信息较少,但以下为您提供一些相关领域的类似产品供参考: 在 AI 虚拟陪伴方面,有以下产品和项目: 1. Character.ai:这是一个 AI 虚拟陪伴平台,用户可以与数百个 AI 驱动的角色进行信息交流,包括名人、动漫角色等。用户还可以创建自己的角色,赋予他们描述、图像、个性,甚至更高级的特性。 2. Replika:这是一款 AI 虚拟陪伴应用,用户可以设计理想的伴侣,随着时间的推移,你们的关系会有所发展。您的 Replika 会存储记忆,以便在未来的对话中参考,甚至可以给您发送照片。 3. Talkie:这是一款 AI 虚拟陪伴应用,主打情感路线。Talkie 中设计有大量的 npc,游戏和休闲娱乐体验感更强,每个 npc 即带着一个自己的剧情体系,在与角色交流过程中会触发抽取卡牌机会。 在制作 PPT 方面,有以下 AI 产品: 1. Gamma:这是一个在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片。它支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。https://gamma.app/ 2. 美图 AI PPT:美图 AI PPT 是由知名图像编辑软件“美图秀秀”的开发团队推出的 AI PPT 工具。它允许用户通过输入简单的文本描述来生成专业的 PPT 设计。美图 AI PPT 可能包含了丰富的模板库和设计元素,用户可以根据自己的需求选择不同风格和主题的模板,快速打造出适合行业分析、工作汇报、创意设计方案等多种场合的 PPT。https://www.xdesign.com/ppt/ 3. Mindshow:Mindshow 是一款 AI 驱动的 PPT 辅助工具,它可能提供了一系列的智能设计功能,如自动布局、图像选择和文本优化等,以帮助用户更高效地创建演示文稿。Mindshow 的目标是通过简化设计流程,让用户能够专注于内容的表达和创意的发挥,而不是繁琐的设计工作。它可能还包括了一些互动元素和动画效果,以增强演示文稿的吸引力。https://www.mindshow.fun/ 在图生图方面,有以下产品: 1. Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果超级好。 需要注意的是,这些 AI 模型通过组合技术如扩散模型、大型视觉转换器等,可以根据文本或参考图像生成具有创意且质量不错的相似图像输出。但仍有一些局限,如偶尔会出现性能不稳定、生成内容不当等问题。 以上内容由 AI 大模型生成,请仔细甄别。
2024-08-13
想知道目前市面上做AI绘本的有哪些公司
目前市面上做 AI 绘本的公司有: 阿里:通义千问大模型的问答能力不错,能满足绘本故事创作。通义万相在文生图方面,生图效果还可以但不稳定,提示词有难度,文字理解能力较弱,每日有 50 灵感值限制出图次数,但有相似图像生成和图像风格迁移功能。 字节跳动:Dreamina 有很多实用功能,如基本的扩图和消除笔功能,可直接用自然语言出图且理解到位,对新手友好,文生图限时免费且无出图次数限制。
2024-08-13
用AI做儿童教育绘本
以下是关于用 AI 做儿童教育绘本的相关信息: 1. 扣子是新一代 AI 应用开发平台,无论是否有编程基础,都可在其上快速搭建基于大模型的各类 Bot,并将 Bot 发布到各个社交平台、通讯软件或部署到网站等其他渠道。您可以用扣子搭建一个儿童故事书,比如取名为「漫画小书虫📚🐛」。原文链接:https://developer.volcengine.com/articles/7386826719224659987 作者:用户 4999846502246 2. 在 AI + 教育的探索实践中,家长可以引导孩子语言表达,在父母的监管下让 AI 工具和孩子互动。比如,引导孩子回答出故事的要素:背景、人物、地点、在做什么等。用 GPT 修改孩子的表达,输入 Gizmo,即可自动生成带文本的插画。能创作专属小绘本的 Gizmo 的作者是作者研究生同学,外研社的教师培训师@Strawberryqueen。相关链接:https://chat.openai.com/g/guizDeOxs7gushichahuajia 。同样,身边也有越来越多的家庭开始实践。 3. IMAGINaiTION 是一个 AI 驱动的个性化儿童故事应用。这个应用旨在提高儿童的语言能力、创造力、情感发展和认知能力。其核心特点包括:构建您的冒险,可根据孩子的兴趣和偏好定制故事;创建您的角色,能选择特点、特征和个性,将您独特的主角栩栩如生;打造您的情节,可制定一个激动人心的故事情节,或者让 AI 自行发挥创意;设定场景,能选择一个场景,从魔法森林到未来城市;添加额外的魔法,可自定义配角、魔法元素或惊喜,创造一个独特的故事。这个应用主要面向 5 岁以下儿童的父母设计,对于年龄超出此范围的具有神经多样性能力的儿童也是宝贵的工具,它提供适应不同发展阶段儿童的内容。链接:
2024-08-09
社区有关于stable diffusion 的教程吗
以下是为您找到的关于 Stable Diffusion 的教程: 知乎教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识,目录包括: Stable Diffusion 系列资源 零基础深入浅出理解 Stable Diffusion 核心基础原理,包含通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍 Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、Stable Diffusion 生成示例 Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括 Stable Diffusion 训练资源分享、模型训练初识、配置训练环境与训练文件 其他教程: 了解 Stable diffusion 是什么: 基本介绍:https://waytoagi.feishu.cn/wiki/CeOvwZPwCijV79kt9jccfkRan5e 稳定扩散(Stable Diffusion)是如何运作的:https://waytoagi.feishu.cn/wiki/TNIRw7qsViYNVgkPaazcuaVfndc 入门教程: 文字教程: 模型网站: C 站SD 模型网站:https://civitai.com/ Liblibai模型+在线 SD:https://www.liblib.ai/ huggingface:https://huggingface.co/models?pipeline_tag=texttoimage&sort=trending 吐司站:https://tusiart.com/ 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ
2025-01-04
图的角色 用 cref 去控制一致性 风格可以用 sref 去控制
在 Midjourney 中,cref 和 sref 是用于引用图片的功能,它们有以下区别和使用方法: 1. 角色参考(cref): 作用:保持图像角色的一致性。 使用方法:在提示后添加“cref”,紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girlcref。可以使用“cw”调整参考图像对生成图像的影响程度,数值范围从 0 到 100。强度 100(“cw 100”)是默认值,会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式为“cref 图片链接,cw 100”。 参考链接: 2. 风格参考(sref): 作用:生成类似风格的图片,保持画风的一致性。 使用方法:在提示后添加“sref”,紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girlsref。可以使用“sw”调整参考风格对生成图像的影响程度,数值范围从 0 到 1000。基础格式为“sref 图片链接,sw 100”。 参考链接: 如果想引用一张图,但只是把它作为新图的一部分,可以使用“sref”或“cref”,并通过调整“sw”或“cw”的值来控制引用图像的影响程度。例如:/imagine prompt beautiful girlsrefsw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格。
2025-01-13
flux lora调参数,我训练出来的人物模型和数据集的人物图片不像,出现这种情况的原因都有哪些,应该调整哪些参数,我需要我的flux模型训练出来的模型是一致性还原性,和泛化性比较不错的,按照这个方向给我指导
以下是关于 flux lora 调参数以获得一致性、还原性和泛化性较好的人物模型的指导: 打标环节: 选择基础大模型,如“麦橘写实”,并为 lora 命名。 将照片导入,选择合适分辨率,可勾选“脸部加强训练”,然后进行预处理。手动裁剪图片比自动裁剪更可靠。 预处理后会出现脸部和整体文件夹,且每张照片自动打好 tag 标签。 可为整体添加统一标签,也可单独修改每张图片的标签。标签有助于 AI 理解图片,描述越详细,人物变化可能越多,泛化性可能越好。仔细检查每张图片的标签,其质量会影响人物 lora 的泛化性。 参数调整环节: 大部分参数是固定的,主要的几个按照人物参数配置一遍。后期根据生成结果再调整。 炼丹环节: 例如 18 张脸部图片,20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1。训练总步数和时长会有所不同,loss 值可作为参考,但最终效果仍需通过测试判断。 此外,在 Lora 串联方面,多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层 1 和 2 的效果不同,加 Lora 时某些 Lora 可能更适合 2。Lora 可用于生成底模无法画出的内容。在运行中点击取消可打断正在渲染跑的图。图像放大可通过 up scale image using model 节点,选择放大模型,用 resize 节点调整尺寸,再用编码器和采样器处理。放大模型直接放大的图像效果不佳,需再次采样增加细节。添加飞桨缺失节点可通过拖入工作流查看标红节点,从管理器安装或从 GitHub 获取节点包放入文件管理系统。采样器和调度器参数设置建议参考模型作者推荐,并结合自己调试。Web UI 中 Lora 库有刷新按钮,将 Lora 丢到文件夹后多点几次刷新即可。
2025-01-04
LLM输出的结果一致性如何保证
要保证 LLM 输出结果的一致性,可以采取以下几种策略: 1. Prompt 工程: 明确的待处理内容指引:在构建 Prompt 时,清晰地定义需要处理的文本,并使用标记框起来,让模型准确识别待处理内容范围,从中提取信息。 提供明确字段定义:具体化每个字段的名称、用途及要求,为 LLM 提供明确的提取方向和标准。 异常处理:设置异常处理原则,如规定缺失数据使用默认值填充,特殊数据类型符合标准格式,确保模型输出的完整性和一致性。 要求结构化输出:指示 LLM 以结构化格式(如 JSON)输出数据,便于后续处理和系统集成。 2. 自我一致性增强可靠性:促使 LLM 对同一问题产生多个答案,通过一致性审查衡量其可信度。一致性评估可从内容重叠、语义相似性评估及高级指标(如 BERT 分数或 ngram 重叠)等多方面进行,增强 LLM 在事实核查工具中的可靠性。 3. 衡量和评估不确定性:如牛津大学通过生成一个问题的多个答案,并使用另一个模型根据相似含义分组来衡量 LLM 不确定性。 4. 利用外部工具验证:如 Google DeepMind 推出的 SAFE,通过将 LLM 响应分解为单个事实、使用搜索引擎验证事实以及对语义相似的陈述进行聚类来评估 LLM 响应的真实性。 5. 借助其他 LLM 发现错误:如 OpenAI 推出的 CriticGPT,使用基于大量有缺陷输入数据集训练的 GPT 式 LLM 来发现其他 LLM 生成代码中的错误。 6. 利用 LLM 生成的评论增强 RLHF 的奖励模型:如 Cohere 使用一系列 LLM 为每个偏好数据对生成逐点评论,评估提示完成对的有效性。
2025-01-02
可灵ai如何保持人物一致性
要保持可灵 AI 中人物的一致性,可以参考以下方法: 1. 人物设定: 明确主角、配角等人物的性格特点、外貌特征等,如主角是一位 40 岁的中年男探险家,性格特点是面对挑战从不轻言放弃,外貌特征是健壮、棕色头发、常穿探险服。 2. MJcref 控制人物一致性: 先根据人物设定,在 MJ 里筛选适合的人物形象,选中后右键复制图片链接。 在尾缀加入【cref 图片链接】控制人物一致性,【cw 数值】控制权重。 对于镜头较多的角色,建议炼个人物模型出来控制,不然 MJ 容易不稳定。 3. 控制多人物场景统一: 先控制一个角色再进行重绘。 选一张合适的图片后,点击 Vary进行局部重绘,并把尾缀机器人的 cref 链接改成主角的 cref 链接。 4. 通过 prompt 格式实现“角色一致性”: 公式:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。 发型/衣物:构造尽可能多的角色非面部视觉元素,产生观众对角色的“一致性观感”。 年龄:约束角色年龄特征。 环境:约束能够产生相同观感的环境空间,尤其是光环境,增加观众对于形象认识的“一致性”认知。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。
2024-12-21
我想做简洁卡通风格的ai动画,根据故事文案生成的那种,需要保持人物一致性,用哪个工具比较好?
以下是一些适合生成简洁卡通风格、根据故事文案生成动画并保持人物一致性的工具: 1. U 传:在 U 传中,通过点击相应按钮参考角色、风格或图生图,可保持人物一致性。新注册有免费生成额度。 2. 季梦:可辅助写视频提示词,能根据上传的图片生成合理的运镜及提示词,还可写分镜脚本。若为 1.2 版本,选慢速或适中的标准模式,效果更好,且生成的视频无水印。每天给 60 积分。 3. 可玲:可辅助写视频提示词,能根据上传的图片生成合理的运镜及提示词,还可写分镜脚本。每天给 60 积分,可用于日常使用,创作片子可能需买会员,生成的视频有无水印选项。 此外,在使用 Midjourney 生图时,若要保持人物和场景一致性,有两个取巧的方式:一个是像上个视频一样生成动物,动物会比较容易保持一致性;另一个方式是特定的名人或者有特殊属性的人物。在确定影片风格时,比如可以选择皮克斯动画风格。同时,在提示词中利用 cref 命令也有助于保持人物的一致性。
2024-12-18
sd角色一致性
在 Stable Diffusion(SD)中实现角色一致性多角度头像绘制的方法如下: 1. 准备工作: 准备一张人物的多角度图片,共有 15 个不同视图,尺寸设置为 1328×800px,放大两倍后保证每张小图为 512×512px。 加上网格图,通过 lineart 分割不同块面。 设置 controlnet,第一张图选择 openpose_face 得到人物的 15 个面部角度,第二张图选择 lineart_standard得到清晰的表格分区。 增加 ADetailer 的脸部修复插件防止小图模式下人脸崩坏。 2. 开始生图: 大模型:majicmixRealistic_v6.safetensors 正向提示词:,auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography 负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,,lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w 参数设置:迭代步数 50,采样方法 DPM++ 2M Karras,尺寸 1328×800px。 3. 细节放大: 发送到图生图,重绘幅度设置为 0.55,使用 controlnet 的 teil 模型增加细节,控制模式选择“更倾向 controlnet”。 使用 Ultimate SD upscale 脚本放大为 2 倍,采用 4xUltraSharp 放大算法。 4. 尝试不同风格: 例如使用 AnythingV5 大模型绘制浅绿色侧马尾女孩形象,使用 revAnimated 大模型绘制粉色头发的长发公主形象。 需要注意的是,由于 AI 绘画的随机性存在,15 个角度的画面不可能完美,controlnet 的控制能让我们更大程度接近想要的效果,想要好的结果需要多刷图。如需 stable diffusion 相关资料,可关注公众号【白马与少年】发送【sd】获取链接。
2024-11-25