直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何安装SD

回答

安装 SD 的步骤如下:

  1. 系统要求:系统需为 Win10 或 Win11。
  2. Win 系统查看配置:
    • 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。
    • 查看电脑配置:检查自己的电脑配置能否带动 SD(Stable Diffusion),需要满足 3 个要求(推荐):电脑运行内存 8GB 以上;是英伟达(NVIDIA)的显卡;显卡内存 4GB 以上。
      • 打开任务管理器:同时按下 ctrl+shift+esc。
      • 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。
      • 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。
  3. 配置达标跳转至对应安装教程页:
  4. 配置不够可选择云端部署(Mac 也推荐云端部署):
  5. 备选:SD 好难,先试试简单的无界 AI:图像类-无界 AI 使用教程

此外,还有以下相关插件的安装:

  1. 【SD】无需 Lora,一键换脸插件 Roop:
    • 安装时间比较长,要耐心等待。
    • 安装好之后,打开 SD 文件目录下的这个文件夹。
    • 在地址栏输入“cmd”,然后回车。
    • 在打开的 dos 界面里面,将“python -m pip install insightface==0.7.3 --user”粘贴进来,就会自动开始安装 insightface。
    • 如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新到云盘,后台回复【SD】即可下载。
    • 安装完成后,重新打开启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。
    • 完成这些后,Roop 插件就可以正常使用。
  2. 【SD】商业换装如此简单,Segment Anything 保姆级教学:
    • 补充说明:如果在使用过程中发生错误,可能需要部署使用环境。
      • 安装 cuda_11.8.0_522.06_windows.exe。
      • 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装(安装过 Roop 的可跳过)。
      • 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。
      • 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。
      • 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。
    • 最后:重启电脑,即可运行。

特别提醒:相关插件使用需谨慎,切勿触犯法律。获取插件安装包,可添加公众号【白马与少年】,回复【SD】。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

0. SD的安装

①系统需为Win10、Win11②Win系统查看配置③配置达标跳转至对应安装教程页[1.Win系统SD安装](https://qa3dhma45mc.feishu.cn/wiki/D5nawAs1fivF4ykx88ucRIYwn1d)④配置不够可选择云端部署(Mac也推荐云端部署)[3.SD云端部署](https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd)⑤备选:SD好难,先试试简单的无界AI:[图像类-无界AI使用教程](https://qa3dhma45mc.feishu.cn/wiki/LRdOw75tQiN3wAkU43ucwb5Ondd)[heading2]Win系统查看配置[content]Win10和Win11一样没区别[heading3]查看电脑系统:[content]在桌面上找到“我的电脑”一鼠标右键点击一一点击"属性”一一查看Windows规格[heading3]查看电脑配置:[content]这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求(推荐):电脑运行内存8GB以上是英伟达(NVIDA)的显卡显卡内存4GB以上①打开任务管理器:同时按下ctrl+shift+esc②查看电脑运行内存8GB运行内存可以勉强运行SD推荐16GB以上运行内存③查看电脑显卡内存(显存)4GB显存可运行SD,推荐8GB以上显存

【SD】无需Lora,一键换脸插件Roop

安装时间比较长,要耐心等待。安装好之后,打开SD文件目录下的这个文件夹。在地址栏输入“cmd”,然后回车。在打开的dos界面里面,将这行代码“python -m pip install insightface==0.7.3 --user”粘贴进来,就会自动开始安装insightface。如果这个阶段出现错误,建议去下载使用最新的秋叶4.2整合包(6月23号更新),下载包我已经更新到了云盘里,后台回复【SD】就可以下载。安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。完成这些后,我们的Roop插件就可以正常使用了。这个插件主要适用于真实的人脸替换,所以对二次元之类的人物作用不大。我们选用一个真实系模型“realisticVisionV20”,关键词描述的是一个老人举着气球。得到了一张如下的照片。接下来启用ROOP插件,选择你想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但是图像会很模糊;数值越高人物越不像,但是图像会很清晰。这个就取决于你的需求了,我使用0.5测试一下。最下面还有一个放大算法,可以使用一个模型放大你的图像,基本就相当于高清修复。设置好后,点击生成。可以看到,人脸部分的像素是偏低的,有点模糊。但是没有关系,我们可以将这张图发送到“图生图”,开一个比较小的重绘幅度。然后使用controlnet中的tile模型进行重绘。换脸完成,像不像你们自行评价吧~如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。特别提醒,此插件谨慎使用,切勿触犯法律。

【SD】商业换装如此简单,Segment Anything保姆级教学

如果在以上使用过程中发生错误,那么你可能需要部署一下使用环境,我们再次开启最傻瓜安装教学模式。1.安装cuda_11.8.0_522.06_windows.exe。2.安装VisualStudioSetup.exe,选择C++的桌面开发安装。以上步骤,我们在安装roop的时候也做过,如果安装过roop的可以跳过。3.拷贝ninja,打开ninja文件包,把里面的内容拷贝到秋叶包根目录。4.拷贝python,打开python文件包,把里面的内容拷贝到秋叶包根目录替换。5.拷贝模型,SAM和GroundingDINO的模型都在这了,放到对应的文件夹即可。6.重启,装好了,重启电脑,即可运行。[heading3]#最后[content]以上,就是关于segment anything插件的安装教程和使用方法讲解,这个软件最大的作用,就是帮助我们快速高效的生成蒙版,从而进行人物的换装或者图片中元素的替换。如果想要获取插件安装包的话,可以添加我的公众号【白马与少年】,回复【SD】即可。-END-

其他人在问
SD软件使用
以下是关于 SD 软件使用的相关内容: 1. 软件安装: 系统要求:Win10 或 Win11。 Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存和显卡内存(显存)。8GB 运行内存可勉强运行 SD,推荐 16GB 以上运行内存;4GB 显存可运行 SD,推荐 8GB 以上显存。 安装方式:配置达标可跳转至对应安装教程页。 2. 制作二维码: 使用进行安装。如果使用的是 Colab Notebook,只需在启动时选择 ControlNet。 生成二维码:首先需要一个二维码。为增加成功机会,请使用符合以下条件的二维码。使用高容错设置或草料二维码。具体步骤为:第一步选择文字类型,输入二维码的文字;第 2 步将容错设置为 30%;第 3 步按生成;第 4 步将二维码下载为 PNG 文件。 3. 软件原理理解: 模型下载与放置:不会科学上网时,可在启动器界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角的模型列表中选择(看不到就点旁边的蓝色按钮刷新)。 VAE:相当于给模型增加提高饱和度的滤镜和局部细节微调,有的大模型自带 VAE,可在启动器里面下载,下载的 VAE 放在根目录的【……\\models\\VAE】文件夹。 Embedding:功能相当于提示词打包,可在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。 LORA:可以将人物或者物品接近完美地复刻进图像中,具有极大商用价值,但使用时需注意版权和法律问题。
2024-11-13
SD大模型无法加载
SD 大模型无法加载可能有以下原因及解决方法: 1. LORA 方面: LORA 可以提炼图片特征,文件通常有几十上百兆,承载信息量远大于 Embedding。下载的 LORA 放在根目录的【……\\models\\Lora】文件夹下,使用时点击红色小书,找到 LORA 选项卡加载。 使用 LORA 时要注意看作者使用的大模型,一般需配套使用,还可能需要加入特定触发词,如盲盒 LORA 需加入“full body, chibi”等提示词。 2. Hypernetworks 方面: Hypernetworks 主要针对画风训练,文件下载后放在根目录的【…\\models\\hypernetworks】,使用时点击红色小书,找到 Hypernetworks 选项卡加载。 3. 模型下载与安装方面: 常用的模型下载网站有:。 下载模型后需放置在指定目录,大模型(Ckpt)放入【models\\Stablediffusion】,VAE 模型放入【models\\Stablediffusion】或【models\\VAE】目录(有的大模型自带 VAE 则无需再加),Lora/LoHA/LoCon 模型放入【extensions\\sdwebuiadditionalnetworks\\models\\lora】或【models/Lora】目录,Embedding 模型放入【embeddings】目录。模型类型可通过检测。 不会科学上网时,可在启动器界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】,在左上角模型列表中选择(看不到就点旁边蓝色按钮刷新)。 旁边的 VAE 相当于给模型增加提高饱和度的滤镜和局部细节微调,可在启动器里下载,放在根目录的【……\\models\\VAE】。 Embedding 功能相当于提示词打包,下载 Embedding 可在 C 站通过右上角筛选 Textual Inversion 找到,放在根目录下的【embeddings】文件夹里。 由于无法确定您大模型无法加载的具体原因,您可以根据上述内容逐一排查。
2024-11-12
SD安装包
以下是关于 SD 安装包的详细步骤: 1. SD 云端部署 部署流程 安装和配置基础环境 在浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量。 安装显卡驱动:用内置的 IE 或下载 Chrome,打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动并安装。 配置环境变量:驱动安装完成后,先找到驱动所在的目录(一般是在「C:\\Program Files\\NCIDIA Corporation」),复制这个路径。找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量。找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,粘贴刚才复制的 nvidia 驱动安装地址,保存即可。 下载安装 SD 整合包 整合包也就是打包了 SD 和 Web UI 方便大家更好的使用的集合,以秋叶的 SD 整合包举例讲解。 下载 SD 整合包:秋叶 SD 整合包下载地址:https://pan.baidu.com/s/1uavAJJdYYWhpnfjwQQDviQ?pwd=a123 ,提取码:a123 。建议在服务器上装个百度网盘或者其他能够提高下载速度的工具,有百度会员则无所谓。 安装 SD 整合包:安装之后,打开安装包一级目录,双击启动器运行依赖(安装一些 SD 运行所必要的基础环境,比如 Microsoft Desktop Runtime 等),安装完成后就可以启动 SD 了。 2. 补充说明 如果在以上使用过程中发生错误,那么可能需要部署一下使用环境,再次开启最傻瓜安装教学模式。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。(如果安装过 roop 的可以跳过) 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 重启,装好了,重启电脑,即可运行。 请注意,如果想要获取插件安装包,可以添加公众号【白马与少年】,回复【SD】即可。
2024-11-11
我要用Sd做图片细化,要怎么做?给出具体方法
以下是使用 SD 做图片细化的具体方法: 1. 对于更精确的蒙版,如人物的眼睛或配饰等,可使用 Segment Anything 中的 GroundingDINO。启用 GroundingDINO 后,AI 会自动下载模型,若没有魔法,可去云盘下载并放到指定文件目录下。在检测提示词中输入相关内容,如“eye”,AI 可自动检测并设置蒙版,还可通过预览箱体得到编号来选择调整单一部分。选择要修改的蒙版上传到重绘蒙版中,并添加提示词,如“闭眼”,点击生成即可完成修改。 2. 给人物换背景时,加载生成的背景蒙版。大模型选择 revAnimated_v122,正向提示词可设为“简单背景、花、国画、工笔”,蒙版模式选择“重绘非蒙版内容”。若头发部分没抠好,可将其放入图生图中,使用 tile 模型做整体细化,还能给人物衣服添加国风元素。 3. SD 扩图时,若原本图片尺寸为 1152x1152 需增高高度,可设置为(1152x1526)。ControlNet 设置方面,若无法识别处理,可采取以下措施:提高 ControlNet 的权重(增加预处理权重,降低引导介入时机直到为 0,增加引导终止时机直到为 1);降低重绘幅度(高清修复大图时使用);把原始的黑白二维码叠加在二维码上方(正片叠底,保留 4 个定位点,擦去其他地方),调节透明度;使劲抽卡。 4. SD 放大通常重绘幅度设置在 0.3 以下,使用 tile 模型时可提高重绘幅度,如保持重绘幅度为 1 放大 1.5 倍绘图,能加强画面细节且不崩坏。对于草图,可将其导入 ControlNet 中,添加提示词进行细化,还可通过改变控制模式和增加关键词来优化效果,如实现随机提示词转换,用提示词对参考图做出调整。
2024-11-09
sd中的采样是什么意思
在 Stable Diffusion 中,采样(Sampling)指的是去噪过程。稳定扩散从随机高斯噪声起步,通过一步步降噪逐渐接近符合提示的图像。每一步都会产生一个新的样本图像,这种方法被称为采样器(Sampler)或采样(Sampling)。 不同的采样器具有不同的特点和效果,例如: Euler a 可以以较少的步数产生很大的多样性,不同的步数可能有不同的结果。 Euler 是最简单、最快的。 DDIM 收敛快,但效率相对较低,需要很多 step 才能获得好的结果,适合在重绘时候使用。 LMS 是 Euler 的衍生,使用一种相关但稍有不同的方法,大概 30 step 可以得到稳定结果。 PLMS 是 Euler 的衍生,可以更好地处理神经网络结构中的奇异性。 DPM2 旨在改进 DDIM,减少步骤以获得良好的结果,但速度较慢。 UniPC 效果较好且速度非常快,对平面、卡通的表现较好,推荐使用。 采样步数(Sampling Steps)也很重要,随着步数增多,可以得到对目标更小、更精确的图像,但增加步数会增加生成图像所需的时间,且增加步数的边际收益递减,一般开到 20 30 步。在实际应用中,如何选择采样器和设置采样步数可以按照模型作者的推荐进行。
2024-11-09
对比sdk 用什么工具推荐
以下是关于对比相关内容的介绍: Midjourney v6.0 与 v6.1 版本对比: 在 Discord 上输入/settings 打开,或者描述词后面输入v 6.1 即可;网页端默认选择 v6.1 版本,直接使用即可。 对比的前提包括文字的摆放是否更完整,实物物体能否从 v6.0 版本复杂化到简单化,人物面部细节处理,肢体和图画比例是否协调,以及插画类在这次版本中的表现。 文字测试结果:v6.0 版本文字方面已不错,但 v6.1 版本表现更好。 实物测试结果:左侧细节过于复杂,右侧简洁合理,此次版本更新情况较诡异。 不同大型语言模型的性能对比: 需考虑多个维度,如理解能力(对语法、语义、上下文和隐含意义的理解)、生成质量(文本的流畅性、相关性和准确性)、知识广度和深度(对广泛主题的知识掌握程度及特定领域的理解深度)、泛化能力(处理未见过的任务或数据的表现)、鲁棒性(对错误输入等的应对能力)、偏见和伦理(生成文本是否存在偏见及是否遵循伦理标准)、交互性和适应性(在交互环境中的表现)、计算效率和资源消耗(模型大小、训练和运行所需的计算资源)、易用性和集成性(是否易于集成到不同应用和服务中及提供的 API 和工具的易用性)。 为进行有效比较,可采用标准基准测试(如使用 GLUE、SuperGLUE、SQuAD 等)、自定义任务(根据特定需求设计)、人类评估(结合主观评价)、A/B 测试(在实际应用场景中比较)、性能指标(如准确率、召回率、F1 分数、BLEU 分数等)。
2024-11-08
python安装后文本文档改为".py"后跳转不到IDLE
很抱歉,目前知识库中没有关于“python 安装后文本文档改为‘.py’后跳转不到 IDLE”这一问题的相关内容。但通常情况下,出现这种情况可能是以下原因导致的: 1. 文件关联设置问题:您的系统可能没有正确将.py 文件与 IDLE 关联,您可以检查系统的文件关联设置。 2. IDLE 配置问题:IDLE 的配置可能存在异常,您可以尝试重新安装或配置 IDLE。 3. 环境变量问题:Python 的环境变量设置不正确也可能导致此问题,您需要确认环境变量是否正确配置。 建议您逐一排查以上可能的原因,以解决该问题。
2024-11-10
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06
本地安装大模型的硬件配置是什么
本地安装大模型的硬件配置如下: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 例如,Fooocus 本地部署需要不低于 8GB 的内存和 4GB 的英伟达显卡。但需注意,最低配置可能运行非常慢。
2024-11-06
如何安装AUTOGLM
AutoGLM 目前处于内测阶段,安装步骤如下: 1. 申请入口在智谱清言 APP 中,直接跟 AutoGLM 内测申请小助手对话提交申请即可。智谱将传统表单的提交通过 Tools 的方式做到了对话中,体验提升很多。 2. 目前只能在安卓设备上使用,iOS 很长时间内都不会支持。 3. 因为数据的获取和操作是通过安卓的无障碍权限来控制的,所以在登录 AutoGLM 后的第一件事情就是引导您去开启无障碍权限和悬浮球权限,不然无法继续体验。无障碍服务(AccessibilityService)是一套可以模拟操作的系统级别的 API。用户同意应用获取无障碍服务的权限之后就可以模拟操作,来控制用户的手机。但开启无障碍服务可能会引起手机卡顿和存在隐私问题。在权限授权正常之后,您就会进入到首页。
2024-11-04
如何安装MIDJOURNEY
安装 Midjourney 可以参考以下步骤: 1. 接入模式选择: 有两种接入模式,分别是:https://github.com/mouxangithub/midjourneyproxyonwechat ;https://github.com/zhayujie/chatgptonwechat/tree/master/plugins/linkai 。选用第二种相对简单且便宜。 2. 实操准备: 在此之前需要安装 chatgptonwechat 和 sum4all 的插件。接入 Midjourney 也是将插件安装在 chatgptonwechat 的 plugins 库中,通过填写模型、key 来实现调用,此次还多了一个 code,操作可能较麻烦,但请相信不难。 3. 注册 Linkai: 打开 https://linkai.tech/home?share=iaPC2x ,在应用接入中创建您的 API Key 。 打开应用市场选择 Midjourney 右上角分享中有 code 地址。 4. 修改相关配置文件: 修改/root/chatgptonwechat/plugins/linkai 中的 config.j 。 修改/root/chatgptonwechat/plugins 中的 config.json 。 修改/root/chatgptonwechat 中的 config.json 。 调试好以上步骤后,即可进入微信对话页面开启插件。
2024-11-03