Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

sd 的imagebrowser在哪下载

Answer

Stable Diffusion 的 ImageBrowser 插件可以通过以下方式下载:

  • 因为该插件还没有收录到官方的插件列表当中,您可以到这个网址去下载:https://github.com/hnmr293/sd-webui-cutoff ,或者是去作者的云盘链接下载。安装之后重启,就可以看到这个插件。

另外,大多数的模型都是在 Civitai(C 站)这个网站里面下载,网址为:https://civitai.com/ 。使用 C 站时需要科学上网,点击右上角的筛选按钮,在框框里面找到自己需要的模型类型。下载的模型保存位置如下:

  • 大模型:存放在 SD 根目录的【……\models\Stable-diffusion】文件夹。
  • Lora:存放在根目录下的相应文件夹。
  • VAE:存放在根目录的【……\models\VAE】文件夹。

如果不会科学上网,也可以去启动器的界面直接下载模型。下载的 Embedding 可以在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】告别提示词颜色污染!Cutoff插件

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-08-11 20:01原文网址:https://mp.weixin.qq.com/s/xVskDEjDUET6yFo1YSZvTg在我们使用Stable Diffusion绘画的时候,通常会用到很多颜色词汇。比如,我这样描述一个女孩的形象:白色头发、绿色眼睛、蓝色上衣、黄色裙子。当我们生成的时候,却发现蓝色上衣中混杂了白色和黄色,黄色裙子里混杂了蓝色等等这种颜色互相污染的情况,无论我们怎么加权重改顺序,都无法完美地解决这个问题,最后还是得靠抽卡。今天,我要介绍的这款插件就能很好地解决SD的色盲问题,让你不用再忍受颜色之间相互污染的烦恼,它就是——Cutoff因为这个插件还没有收录到官方的插件列表当中,所以我们可以到这个网址去下载https://github.com/hnmr293/sd-webui-cutoff,或者是去我的云盘链接下载。安装之后重启,我们就可以看到这个插件了。

教程:超详细的Stable Diffusion教程

除了链接里面给大家分享的模型,大家肯定还想去找更多更好看的模型而大多数的模型都是在Civitai(C站)这个网站里面https://civitai.com/现在就给大家说一下C站的使用方法:01.科学上网这个没法教,大家只能自己想办法了02.点击右上角的筛选按钮,在框框里面找到自己需要的模型类型Checkpoint=大模型LoRA=Lora常用的就是这两个03.看照片,看到感兴趣的就点进去点击右边的“Download”,也就是下载,保存到电脑本地,文件保存到哪里在这一节的第二部分另外,我们还可以点击左上角的“Images”这里就是看别人已经做好的图片,找到喜欢的点进去点进去之后的页面我们就可以看到这张图的全部信息,直接点击Lora和大模型,可以直接跳转到下载页面下面的就是照片关键词和其他信息点击最下面的“Copy...Data”就可以复制图片的所有信息回到SD,粘贴到关键词的文本框,点击右边的按钮这些信息就会自动分配要注意的就是,大模型是需要我们手动去换的!这样我们就可以生成出跟大神几乎一样的照片了!(电脑网络配置的不同,出来的照片有细微差别)[heading2]2.模型下载到哪里[content]这里大家就直接看我文件的保存地址,找到自己电脑里的01.大模型这里的SD根目录就是大家在下载时,存放SD的那个文件夹02.Lora03.VAE[heading2]3.如何分辨模型[content]如果我们下载了一个模型,但不知道它是哪个类型的,不知道要放到哪个文件夹我们就可以用到这个秋叶的模型解析工具https://spell.novelai.dev/把模型拖动到空白处接着就会自动弹出模型的信息在模型种类里面就可以看到是什么模型啦!

【SD】软件原理傻瓜级理解

如果不会科学上网,也可以去启动器的界面直接下载模型,当然这里是看不见预览图的,但从名字你可能看不出这个模型是什么风格。将下载的大模型放在根目录的这个文件夹下【……\models\Stable-diffusion】,我们就可以在左上角的模型列表中进行选择了。(看不到就点旁边的蓝色按钮刷新一下)。旁边这个VAE,相当于是给模型增加一个提高饱和度的滤镜和一些局部上的细节微调。当然有的大模型本身就自带VAE,所以就不用再加了。VAE可以直接在启动器里面下载,下载的VAE放在根目录的这个文件夹下【……\models\VAE】。接下来要理解的一个概念是Embedding,这个功能相当于是一个提示词打包的功能。比如你想画一个娜美的人物形象,但是想要固定一个人物形象往往要几十条什么上百条提示词,比如性别、头发、脸型、眼睛、身材等等一大堆精确指向的词汇。那这个时候,就有人将这些提示词整合到一起做成了一个Embedding文件,你只需要使用一个提示词,就可以直接引入这个人物形象进行创作了。下载Embedding的地方同样是在C站,通过右上角的筛选Textual Inversion就可以找到,放在根目录下的embeddings文件夹里即可。接下来,讲一讲最重要的这个LORA,有了LORA就可以将人物或者物品接近完美地复刻进图像中,这就有了极大的商用价值。比如这个“墨心”的LORA,就可以把你的图片变成水墨风格。这个盲盒LORA可以生成这种2.5D的卡通小人角色。或者是一些明星角色的LORA,直接生成真人形象。还有知名的动漫角色,由于LORA其极其强大的功能,所以在使用上,大家需要有很强的版权和法律意识,所谓能力越大、责任越大,玩得太花,小心律师函到你家。

Others are asking
SD模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将文本输入到 SD 模型,经过一定迭代次数生成符合描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示重绘输入图片使其更符合描述,如在沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本编码生成 Text Embeddings 特征矩阵,用于控制图像生成。 目前 SD 模型使用的是中的 Text Encoder 模型,其只包含 Transformer 结构,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小为 123M,输出 Text Embeddings 的维度为 77x768。 以下是相关资源获取方式: SD 模型权重:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 模型”,可获得包含多种模型权重的资源链接。 SD 保姆级训练资源:关注 Rocky 的公众号 WeThinkIn,后台回复“SDTrain”,可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE、UNet 和 CLIP 三大模型的可视化网络结构图:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 网络结构”,即可获得网络结构图资源链接。
2025-01-22
SD如何操作
以下是关于 SD 操作的相关内容: Stable Diffusion 中,Checkpoint 是最重要的模型,也是主模型,几乎所有操作都依托于它。主模型基于 Stable Diffusion 模型训练而来,有时被称为 Stable Diffusion 模型。主模型后缀一般为.ckpt 或者.safetensors,体积较大,一般在 2G 7G 之间。要管理模型,需进入 WebUl 目录下的 models/Stable diffusion 目录。 画出商用级别的高清大图操作简单,调整好放大倍率即可直接放大。其原理和其他图片放大原理相同,并非重绘,只是变清晰,缺失细节不会补全。 制作中文文字的思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果。 可输出 C4D 模型,自由贴图材质效果。 若希望有景深效果,可打开 depth。 打开高清修复,分辨率 1024 以上,步数 29 60。
2025-01-09
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
SD怎么学习简单
学习 Stable Diffusion(SD)可以从以下方面入手: 学习 SD 提示词: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录。 运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。 等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开。 即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。 尝试生成图像,观察不同参数对结果的影响。 学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。 学习如何导入自定义模型、VAE、embedding 等文件。 掌握图像管理、任务管理等技巧,提高工作效率。 总之,学习 SD 需要多方面的知识和经验积累。初学者可从官方资料入手,掌握基本概念;中级阶段需大量实践,培养敏锐度;高级阶段则要追求创新性、挖掘新维度。持续的学习、实践和总结反馈,是成为高手的必由之路。
2025-01-04
怎么看sd的插件不兼容
SD 插件不兼容可能有多种情况和解决方法: 对于提示词服从度增强插件,当生成图与提示词不太相符时,可以通过多刷图来找到符合需求的绘图。若条件太多始终达不到效果,可提高 cfg 值并启用修复插件。但开启插件并提高 CFG 值后,画面可能会发黄,颜色偏差可利用 PS 做后续调整。安装方式可以在扩展列表中搜索插件名字,或放在特定路径文件夹下,安装完成后重启 webUI 即可启用。 对于无需 Lora 的一键换脸插件 Roop,安装时间较长,需耐心等待。安装过程包括在特定文件夹地址栏输入“cmd”回车,在打开的 dos 界面粘贴代码安装 insightface。若出现错误,可下载最新秋叶 4.2 整合包。安装完成后重新打开启动器,后台会继续下载模型,需全程科学上网。使用时要注意参数设置,人脸像素可能偏低,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。此插件谨慎使用,切勿触犯法律。获取插件可添加公众号【白马与少年】回复【SD】。
2025-01-02
Pix Verse 在哪下载
PixVerse 可以在以下网址下载:https://pixverse.ai/ 。 它具有以下特点: 人少不怎么排队,还有换脸功能。 支持文生视频、图生视频,人物一致性角色创建。 提示词使用中文、英文都可以。 文生视频支持正向、反向提示词、选风格、种子值,支持多种尺寸。 图生视频支持正向提示词、运动强度、种子值。 一致性人物角色支持正向、反向提示词、选人物、种子值,支持多种尺寸。 暂时不支持镜头控制,默认生成 4s 视频。 相关教程:
2025-01-14
模型下载
以下是关于模型下载的相关信息: ComfyUI BrushNet 模型下载: 原项目:https://tencentarc.github.io/BrushNet/ 插件地址:https://github.com/kijai/ComfyUIBrushNetWrapper 模型下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 第一次运行会自动下载需要的模型,如果使用 ComfyUIBrushNetWrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 到 ComfyUI/models/brushnet。 因环境问题,也可手动下载后放在这个文件夹里面。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。 SD 模型下载: 常用的模型网站有: 下载模型后需要将之放置在指定的目录下,不同类型的模型放置目录不同: 大模型(Ckpt):放入 models\\Stablediffusion VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\\Stablediffusion 或 models\\VAE 目录,然后在 webui 的设置栏目选择。 Lora/LoHA/LoCon 模型:放入 extensions\\sdwebuiadditionalnetworks\\models\\lora,也可以在 models/Lora 目录 Embedding 模型:放入 embeddings 目录
2025-01-14
如何将ollama下载到其他盘中
要将 ollama 下载到其他盘,您可以按照以下步骤进行操作: 1. 新建环境变量:ollama 默认的模型保存路径为 Windows:C:\\Users\\%username%\\.ollama\\models 。添加环境变量添加 OLLAMA_MODELS 环境变量。 2. 进入 ollama 官网下载:地址为 https://ollama.com/ 。 3. 下载语言模型:模型地址为 https://ollama.com/library 。 选择 llama 模型下载至本地。 选择本地文件夹,在 CMD 后粘贴刚才复制的命令。 开始下载,下载完成并测试。 4. 下载图像模型:模型地址为 https://ollama.com/library 。 选择 llava 模型下载至本地。 选择本地文件夹,在 CMD 后粘贴刚才复制的命令。 开始下载,下载成功。 5. 在 Comfy 中使用: 下载并安装 ollama 节点,下载地址: ,下载完成后安装到节点目录。 在 Comfy 中调用。 此外,还有以下相关信息供您参考: 为了应对没下载大模型带来的报错,需要下载大模型。首先,下载 ollama,网站: 网站中,复制代码。然后,像建议一样打开 ComfyUi 根目录下的 custom_nodes\\ComfyUiOllamaYN 的文件路径,在上方的路径下输入 cmd,进入到下方的命令行,右键即可粘贴刚才的代码,等待下载即可。 部署大语言模型: 下载并安装 Ollama:点击进入,根据您的电脑系统,下载 Ollama:https://ollama.com/download 。下载完成后,双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R ,输入 cmd,点击回车。如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制以下命令行,粘贴进入,点击回车。回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。
2025-01-13
2024年人工智能指数报告 下载
以下是为您提供的 2024 年人工智能指数报告的相关下载信息: 1. 《》由微软和领英联合发布,揭示了人工智能(AI)在工作场所的快速增长和深远影响。 2. 可在知识星球下载的报告: 《》深入分析了 AI Agent 的市场定义、发展阶段、核心组件及其在企业用户场景中的应用。 《》企业实施 AI Agent 的主要目标是降低运营成本,尤其是在知识库管理、数据分析、营销与客户服务等领域。 3. 《》数据处理应从模型为中心转向数据为中心,并强调向量数据库在提升模型服务能力中的核心作用。 4. 斯坦福大学发布的基础模型透明度指数相关报告:在上一届 SOAI 发布后不久,斯坦福大学发布了其首个基础模型透明度指数,模型开发者的平均得分为 37 分。在团队的中期更新中,这一分数攀升至 58 分。2024 年 5 月,该指数的最新一期基于 100 项指标,评估了 14 家领先的基础模型开发者的透明度,这些指标涵盖“上游”因素数据、劳动力、计算、围绕能力和风险的“模型级”因素、围绕分布的“下游”标准以及社会影响。计算和使用政策的评分出现了最强劲的改善,而“上游”评分仍然疲弱。 5. 《2024 年人工智能现状:辉煌、戏谑和“牛市”》报告链接:
2025-01-11
ChatGPT 4.0 下载
ChatGPT 4.0 无法直接下载。ChatGPT 是通过网络提供服务的。 ChatGPT 的基本概念是从网络、书籍等来源获取大量人类创作的文本样本,然后训练神经网络生成类似的文本。其神经网络由简单元素组成,操作也较为简单,但能生成成功类似于网络、书籍等内容的文本。 关于 ChatGPT 4.0 的相关动态: 1. ChatGPT 命令工具上线,提供搜索、图像、O1 推理三种命令,使普通模型具备高级推理能力,所有模型均支持命令调用,显著提升了整体能力。 2. ChatGPT 4.0 Canvas 功能助力写作,提供思路、润色语言、内容扩展,支持快速修改与撤回版本,极大提升写作效率,未来或将支持多人协作、数据图表生成、甚至直接生成 PPT。
2025-01-07
ChatGPT国内怎么下载并使用
以下是在国内下载并使用 ChatGPT 的方法: 苹果系统: 1. 在 AppleStore 下载 chatgpt:中国区正常下载不了,需要切换到美区。美区 AppleID 注册教程参考知乎链接: 。最终在 AppleStore 搜到 chatgpt 结果后下载安装,注意别下错。 2. 支付宝 购买苹果礼品卡 充值 订阅付费 App:打开支付,地区切换到【美区任意区】,往下滑,找到【品牌精选 折扣礼品卡】,点击进去,可以看到【大牌礼品卡】,往下滑找到【App Store&iTunes US】礼品卡,按需要的金额购买即可,建议先买 20 刀。 支付宝购买礼品卡。 在 apple store 中兑换礼品卡。 在 chatgpt 中购买订阅 gpt plus,如果中途不想继续订阅了,可到订阅列表中取消订阅。 安卓系统: 1. 安装 google play: 到小米自带的应用商店搜索 google play 进行安装。 安装好后,打开 GooglePlay,按照提示一步步操作,登录 GooglePlay。 2. 下载安装 chatgpt: 到谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI,别下错。可能遇到“google play 未在您所在的地区提供此应用”的问题,解决方法如下:在 google play 点按右上角的个人资料图标。依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。在这里看到账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡就行,填写信息时地区记得选美。如果回到 google play 首页还搜不到 chatgpt,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次。 3. 体验 ChatGPT:如果只想体验 ChatGPT 3.5 版本,不升级 GPT4,直接登录第二部注册好的 ChatGPT 账号即可。 4. 订阅 GPT4 Plus 版本:先在 Googleplay 中的【支付和订阅】【支付方式】中绑定好银行卡,然后在区 chatgpt 里订阅 Plus。 完成上述步骤后,即可开始使用 ChatGPT 4o: 1. 开启对话:打开 ChatGPT 应用或网页,点击开始对话。会员不管是在苹果还是安卓手机上购买的,电脑上都能登录。 2. 体验最新语音对话功能:版本切到 ChatGPT 4o,点击右下角“耳机🎧”图标,选择一个声音,就可以体验流畅的语音对话。
2025-01-06