Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

sd 教程

Answer

以下是关于 SD 的一些教程:

  • 教程:SD 做二维码
    • 好看的二维码欣赏:第一个就是 qrbtf。
    • 方法原文地址:https://stable-diffusion-art.com/qr-code/
    • 引言:Reddit最近的一篇帖子展示了一系列使用 Stable Diffusion 创建的艺术二维码。这些二维码是使用[定制训练的]ControlNet模型生成的。
  • 教程:SD 做中文文字 - 持续更新中
    • 制作思路:
      1. 将中文字做成白底黑字,存成图片样式。
      2. 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensors[e6415c4892]ControlNet 预设置。
      3. 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。
      4. 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。
      5. 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。
      6. 打开高清修复,分辨率联系 1024 以上,步数:29 - 60。
  • SD 的各种实践教程
    • 教程:线稿上色 Midjourney + Stable Diffusion
    • 教程:猫咪狗狗 lora
    • 教程:字体设计机甲战士
    • 教程:做盲盒 - 平面变 3D
    • 教程:MJ 出图 SD 放大
    • 教程:七夕字体和图
    • 教程:可爱毛粘字体
Content generated by AI large model, please carefully verify (powered by aily)

References

教程:SD 做二维码

这两张应该用了mj的zoom out扩图以下教程是很早以前的教程:最近新出了融合二维码教程请看上面高亮块按照以下方法试验出了几个waytoAGI.com的二维码这个好看但是电脑能识别,手机不好识别还给小助理做了个炫酷的微信的二维码需要转一下https://cli.im/weixin[heading2]用SD做二维码教程如下:[content]方法原文地址:https://stable-diffusion-art.com/qr-code/引言[Reddit](https://www.reddit.com/r/StableDiffusion/comments/141hg9x/controlnet_for_qr_code/)最近的一篇帖子展示了一系列使用Stable Diffusion创建的艺术二维码。这些二维码是使用[定制训练的](https://arstechnica.com/information-technology/2023/06/redditor-creates-working-anime-qr-codes-using-stable-diffusion/)[ControlNet](https://stable-diffusion-art.com/controlnet/)模型生成的。就像在Stable Diffusion社区的另一天一样,人们很快就想出了如何在没有自定义模型的情况下使用Stable Diffusion制作QR码。在这篇文章中,您将学习如何生成这样的二维码。

教程:SD 做中文文字-持续更新中

Nenly同学的视频教程来了:【“牛逼”的教程来了!一次学会AI二维码+艺术字+光影光效+创意Logo生成,绝对是B站最详细的Stable Diffusion特效设计流程教学!AI绘画进阶应用-哔哩哔哩】https://b23.tv/c33gTIQ还有个群友根据下面的教程自己做了个视频教程非常详细1.将中文字做成白底黑字,存成图片样式2.使用文生图的方式,使用大模型真实系,作者用的realisticVisionV20_v20.safetensors[e6415c4892]ControlNet预设置3.输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。4.同理可输出C4D模型,可自由贴图材质效果,3d,blender,oc rendering5.如果希望有景深效果,也可以打开depth(增加阴影和质感)6.打开高清修复,分辨率联系1024以上,步数:29-60本来想方一个b站视频,但是没有按照上面的实测,等看完之后再推荐当然https://firefly.adobe.com/也可以,但是sd感觉可操控性更强,尤其是中文字体

2. SD的各种实践教程

[教程:SD做二维码](https://waytoagi.feishu.cn/wiki/RsfFwo3wAiSZtzkNhUYcIrHqnIb)[教程:SD做中文文字-持续更新中](https://waytoagi.feishu.cn/wiki/JuiBwNTU1i3Lhwk7kzmcUHLUn0d)[教程:线稿上色Midjourney+Stable Diffusion](https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd)[教程:猫咪狗狗lora](https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg)[教程:字体设计机甲战士](https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd)[教程:做盲盒-平面变3D](https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe)[教程:MJ出图SD放大](https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf)[教程:七夕字体和图](https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU)[教程:可爱毛粘字体](https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd)

Others are asking
sd 教程
以下是关于 SD 的一些教程: 1. 用 SD 做二维码: 方法原文地址:https://stablediffusionart.com/qrcode/ 好看的二维码欣赏:第一个就是 qrbtf 最近新出了融合二维码教程 按照以下方法试验出了几个 waytoAGI.com 的二维码 微信的二维码需要转一下 https://cli.im/weixin 最近的一篇帖子展示了一系列使用 Stable Diffusion 创建的艺术二维码。这些二维码是使用模型生成的。 2. 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering 如果希望有景深效果,也可以打开 depth(增加阴影和质感) 打开高清修复,分辨率联系 1024 以上,步数:2960 3. SD 的其他实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-03-04
学习sd的教程在哪里
以下是一些学习 Stable Diffusion(SD)的教程资源:
2025-03-04
如果不是英伟达显卡,可以本地部署SD吗?
如果不是英伟达显卡,一般不建议本地部署 SD。 SD 的安装要求如下: 1. 系统需为 Win10 或 Win11。 2. 查看电脑配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD(Stable Diffusion),需要满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。 查看电脑运行内存:打开任务管理器(同时按下 ctrl+shift+esc),8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存):4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标可跳转至对应安装教程页: 。 4. 配置不够可选择云端部署(Mac 也推荐云端部署): 。 5. 备选:SD 好难,先试试简单的无界 AI: 。 另外,Fooocus 是 SD 的相关产品,其使用的是最新推出的 SDXL 1.0 模型,对 stable diffusion 和 Midjourney 做了结合升级。Fooocus 本地部署的配置要求为:需要不低于 8GB 的内存和 4GB 的英伟达显卡。Fooocus 介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G) ,使用指南:https://github.com/lllyasviel/Fooocus/discussions/117 ,大模型(base 和 Refiner)默认放在这里:\\Fooocus_win64_1110\\Fooocus\\models\\checkpoints 。 SD 云端部署的流程如下: 1. 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 2. 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 3. 配置环境变量:驱动安装完成后,开始配置环境变量。首先找到驱动安装所在的目录,如果没有特殊设定,一般是在「C:\\Program Files\\NCIDIA Corporation」,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,将刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。
2025-02-27
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
开源模型的MIT模式、Apache、GPL、BSD模式的模型案例有哪些?
目前开源模型的 MIT 模式、Apache、GPL、BSD 模式的具体案例众多且不断更新。MIT 模式的开源模型如 TensorFlow Lite;Apache 模式的有 MXNet;GPL 模式的像 Gnuplot;BSD 模式的例如 OpenCV 等。但请注意,这只是其中的一部分,实际情况可能会有所变化。
2025-02-14
ai教程
以下为为您提供的 AI 教程相关内容: 1. 五步学会用 AI 制作动画视频播客:五个步骤教您从零到一制作动画版视频播客,适合有一定技术基础的朋友,轻松上手创作动画视频!相关链接: 2. Poe AI 平台:这是一个支持与多个智能 AI 机器人(如 GPT4 等)进行实时在线交流的聊天网站。注册账号后可免费使用,部分功能需付费订阅。不同 AI 机器人有不同特点,可按需选择。官网地址是:https://poe.com/ ,可在官网帮助中心找到具体教程。 此外,还有以下 AI 相关信息: 1. Hailuo AI 推出 I2V01Live 新功能:能让静态 2D 插画“活”起来,从静态到动态为 2D 插画加入流畅动画,赋予角色生命力,支持多风格,动作细节表现细腻自然。相关链接: 2. 腾讯 Hunyuan:130 亿参数开源视频模型,能高质量生成视频,动作连贯自然,镜头切换灵活,具备强大语义跟随能力,适配新一代语言模型作为文本编码器,采用类似 Sora 的 DiT 架构,显著提升影视级动态表现力。相关链接:
2025-03-04
Stable Diffusion 教程
以下是关于 Stable Diffusion 的教程: Stable Diffusion 是什么: 稳定扩散(Stable Diffusion)是一个 AI 自动生成图片的软件,通过输入文字就能生成对应的图片。 入门教程: 新人视频教程:https://waytoagi.feishu.cn/wiki/O5jEwgZIRiQ10xkqGOQcKtSBnSe 文字教程:https://zhuanlan.zhihu.com/p/622238031 模型网站: C 站SD 模型网站:https://civitai.com/ Liblibai模型+在线 SD:https://www.liblib.ai/ huggingface:https://huggingface.co/models?pipeline_tag=texttoimage&sort=trending 吐司站:https://tusiart.com/ 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 为什么要学 Stable Diffusion 及其强大之处: 学习 Stable Diffusion 非常简单,目的是花更少时间快速入门。 它可以生成真人 AI 美女、头像、壁纸,辅助绘画,还能用于恢复画质、室内设计等,有很多功能和应用场景。 希望以上内容对您有所帮助。
2025-03-04
flux 训练lora 教程
以下是关于 Flux 训练 Lora 的教程: 1. 准备模型:需要下载以下几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。注意:不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 4. 0 基础训练大模型: 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以是包含图片 + 标签 txt,也可以只有图片没有打标文件(之后可以在 c 站使用它的自动打标功能),也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后就会上传成功,可以点击详情检查,可以预览到数据集的图片以及对应的标签。 步骤二·Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集,触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后就可以等待训练了,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 5. ControlNet 作者张吕敏再出新项目 LuminaBrush:基于数据集在 Flux 上训练 LoRA,并用 LoRA 生成的图像来扩展这个图像数据集。使用均匀光照图像作为中间表示具有一些优势,比如避免来自 3D 反照率的过于锐利的网格边界或过于平坦的表面。而这些图像在细节层面也足够细腻,可以处理皮肤纹理、头发、毛发等细节。接下来,通过合成随机法线,将这些均匀光照图像进行随机再光照,以训练一个可以从任何输入图像中提取均匀光照外观的模型。第一阶段的这个模型目前也提供了在线 demo:https://huggingface.co/spaces/lllyasviel/lumina_brush_uniform_lit 。第二阶段,会从数百万张高质量的自然场景图像中提取均匀光照外观图像,以构建成对数据集,用于训练最终的交互式光照绘制模型。
2025-03-04
这个网站有学习AI绘画的教程吗
以下是一些学习 AI 绘画的教程资源: 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 从 0 入门 AI 绘画教程: 线上教程: AI 线上绘画教程:
2025-03-04
cursor教程
以下是关于 Cursor 教程的相关内容: 中文教程网站:,适合想深入了解和学习 Cursor 使用方法的用户。 4 款插件 2 个 API 配置教程:从穷👻套餐 2.0 开始,对 Cursor 的配置集中在接入更多模型,如 Qwen2.5Coder、Llama3.3、deepseek v3、gemini2.0flash 等,以节省 API 费用,但未完全挖掘出 Cursor 潜力,Pro 版本有次数限制,因此收集 3 个插件、2 大 API 和 N 个新的提示语用法,为 Cursor 装配上多种功能。 0 编程基础入门极简使用指南: 下载 Cursor:https://www.cursor.com/ 注册账号,可用邮箱如 google/github/163/qq 邮箱,接受二维码登录。 安装中文包插件。 在设置中 Rule for AI 配置,按 ctrl/cmd+i 输入需求,如“帮我做一个贪吃蛇游戏,在网页中玩”,并清晰表达需求,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等规则。
2025-03-04