Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

SD如何操作

Answer

以下是关于 SD 操作的相关内容:

  • Stable Diffusion 中,Checkpoint 是最重要的模型,也是主模型,几乎所有操作都依托于它。主模型基于 Stable Diffusion 模型训练而来,有时被称为 Stable Diffusion 模型。主模型后缀一般为.ckpt 或者.safetensors,体积较大,一般在 2G - 7G 之间。要管理模型,需进入 WebUl 目录下的 models/Stable - diffusion 目录。
  • 画出商用级别的高清大图操作简单,调整好放大倍率即可直接放大。其原理和其他图片放大原理相同,并非重绘,只是变清晰,缺失细节不会补全。
  • 制作中文文字的思路:
    • 将中文字做成白底黑字,存成图片样式。
    • 使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果。
    • 可输出 C4D 模型,自由贴图材质效果。
    • 若希望有景深效果,可打开 depth。
    • 打开高清修复,分辨率 1024 以上,步数 29 - 60。
Content generated by AI large model, please carefully verify (powered by aily)

References

guahunyo:SD入门讲解PPT.pptx

Yo63rbnt-dua w-noor-163.un9m-60,yeartuedsert.yno-9 ue.<um-2.un.<um-.02:SD常用扩展讲解9vor:6 nid[heading3]#nsds[content]uun.u-s.-9i2-Y9VOomi!#:oo:tneoqmi!<Ju<ven go#sbedn03 9Jgg随便聊聊kingsoft@docer.cn01[heading3]S abl diff sion Webui基础操作讲解[heading4]SD基础操作讲解[content]fogm时uCheckpointYOUR LOGOCheckpoint是Stable Diffusion中最重要的模型,也是主模型,几乎所有的操作都要依托于主模型进行。而所有的主模型都是基于Stable Diffusion模型训练而来,所以有时会被称为Stable Diffusion模型。Stable Difusin checkpoinmajicmixRealistic_v7.saetensors[7c819b6d13]Clip skipToken merging ratioExtrastxt2imgimg2imgPNG InfoCheckpoint MergerEbsynth UtlityOpenPose Editor3DOpenposeAdditional NetworksInpaint AnythingPhotopeaQR ToolkitSuperMergerMerge Block WeightedSettingsExtensions168/225tey lo.DeOldify主模型后缀一般为.ckpt或者.safetensors,并且体积比较庞大,一般在2G-7G之间。而要管理模型我们需要进入WebUl目录下的models/Stable-diffusion目录下。0.8><or:更真实-epiCRealismHelper:1(ng_deepnegative_v1_75t),(badhandv4),(worst quality:2),(low quality:2),(ormal quality:2),lowres,bad anatomy,bad haneGenerationSampling stepsTextual InversionHypernetworksCheckpointsLoraSampling methocDPM+SDE KarrasDPM++2M SDE Exponential

【SD】如何画出商用级别的高清大图

它的操作非常简单,调整好放大倍率就可以直接放大了。它的原理和市面上的其他图片放大的原理一样,并不是重绘,只是单纯的变清晰,所以缺失掉的细节是不会补全的。如果原本就是一坨,那放大后也就是清晰的一坨。对比一下原图、SD放大和后期处理放大,从嘴唇上就可以看出它们的区别。虽然后期处理的放大,在细节上肯定不如重绘的效果好,但是它胜在简单、方便、速度快、可以处理任何图片,如果要求不高,也是很好用的一个功能。以上就是关于AI绘制高清图的四种方法,通过这些技巧我们就可以得到足以商用的高清图片素材啦。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

教程:SD 做中文文字-持续更新中

Nenly同学的视频教程来了:【“牛逼”的教程来了!一次学会AI二维码+艺术字+光影光效+创意Logo生成,绝对是B站最详细的Stable Diffusion特效设计流程教学!AI绘画进阶应用-哔哩哔哩】https://b23.tv/c33gTIQ还有个群友根据下面的教程自己做了个视频教程非常详细1.将中文字做成白底黑字,存成图片样式2.使用文生图的方式,使用大模型真实系,作者用的realisticVisionV20_v20.safetensors[e6415c4892]ControlNet预设置3.输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。4.同理可输出C4D模型,可自由贴图材质效果,3d,blender,oc rendering5.如果希望有景深效果,也可以打开depth(增加阴影和质感)6.打开高清修复,分辨率联系1024以上,步数:29-60本来想方一个b站视频,但是没有按照上面的实测,等看完之后再推荐当然https://firefly.adobe.com/也可以,但是sd感觉可操控性更强,尤其是中文字体

Others are asking
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
SD怎么学习简单
学习 Stable Diffusion(SD)可以从以下方面入手: 学习 SD 提示词: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录。 运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。 等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开。 即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。 尝试生成图像,观察不同参数对结果的影响。 学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。 学习如何导入自定义模型、VAE、embedding 等文件。 掌握图像管理、任务管理等技巧,提高工作效率。 总之,学习 SD 需要多方面的知识和经验积累。初学者可从官方资料入手,掌握基本概念;中级阶段需大量实践,培养敏锐度;高级阶段则要追求创新性、挖掘新维度。持续的学习、实践和总结反馈,是成为高手的必由之路。
2025-01-04
怎么看sd的插件不兼容
SD 插件不兼容可能有多种情况和解决方法: 对于提示词服从度增强插件,当生成图与提示词不太相符时,可以通过多刷图来找到符合需求的绘图。若条件太多始终达不到效果,可提高 cfg 值并启用修复插件。但开启插件并提高 CFG 值后,画面可能会发黄,颜色偏差可利用 PS 做后续调整。安装方式可以在扩展列表中搜索插件名字,或放在特定路径文件夹下,安装完成后重启 webUI 即可启用。 对于无需 Lora 的一键换脸插件 Roop,安装时间较长,需耐心等待。安装过程包括在特定文件夹地址栏输入“cmd”回车,在打开的 dos 界面粘贴代码安装 insightface。若出现错误,可下载最新秋叶 4.2 整合包。安装完成后重新打开启动器,后台会继续下载模型,需全程科学上网。使用时要注意参数设置,人脸像素可能偏低,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。此插件谨慎使用,切勿触犯法律。获取插件可添加公众号【白马与少年】回复【SD】。
2025-01-02
SD如何人物换脸
以下是关于 SD 人物换脸的详细步骤: 1. 安装 Roop 插件:安装时间较长,需耐心等待。安装好后打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 2. 后续操作:安装完成后重新打开启动器,后台会继续下载模型,全程要保证科学上网。Roop 插件主要适用于真实人脸替换,对二次元人物作用不大。选用真实系模型“realisticVisionV20”,关键词描述人物。启用 Roop 插件,选择要替换的人物照片,面部修复选“GFPGAN”,右边参数数值越低人物越像但图像模糊,数值越高人物越不像但图像清晰,可根据需求设置,如 0.5。设置好后点击生成,若人脸像素偏低模糊,可将图发送到“图生图”,开较小重绘幅度,使用 controlnet 中的 tile 模型重绘。 3. 多人物脸部替换:先正常生成图片,如两个古风人物形象。发送到图生图中调整重绘幅度。在 roop 插件中,从左往右编号,载入相应人物照片形象进行脸部替换。 4. 获取插件:想要 Roop 插件,可添加公众号【白马与少年】,回复【SD】。 另外,还有关于 SD 中更精确蒙版的操作,如使用 GroundingDINO 模型分割:启用 GroundingDINO 时 AI 会自动下载模型,也可在云盘下载放到特定文件目录。在检测提示词中输入如“eye”,可自动检测出相应部分并设置蒙版,还能通过预览箱体得到编号选择调整单一部分。选择要修改的蒙版上传到重绘蒙版,添加提示词生成。给人物换背景时,加载生成的背景蒙版,选择大模型和正向提示词,蒙版模式选“重绘非蒙版内容”,生成后可再次放入图生图中细化,还可在 PS 中修复。 特别提醒,使用相关插件需谨慎,切勿触犯法律。
2024-12-31
SD插件
以下是关于 SD 插件的相关信息: 1. 【SD】无需 Lora,一键换脸插件 Roop: 安装时间较长,需耐心等待。安装好后打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”自动安装 insightface。若此阶段出错,建议下载最新秋叶 4.2 整合包(6 月 23 号更新),后台回复【SD】可在云盘下载。安装完成后重新打开启动器,后台会继续下载模型,全程需科学上网。此插件主要适用于真实人脸替换,对二次元人物作用不大。选用真实系模型“realisticVisionV20”,设置相关参数后点击生成,人脸像素可能偏低模糊,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。想要此插件,可添加公众号【白马与少年】回复【SD】。使用时需谨慎,切勿触犯法律。 2. 【SD】手涂蒙版定位插件 Latent Couple: 主提示词描述小鸟站在女孩肩上的画面、女孩装束和周围环境等,色块对应小鸟和女孩提示词后点击发送。填上常用标准负向提示词,大模型选择“revAnimated_v122”。多次生成后选择不错的进行高清修复放大。使用此插件可更灵活控制构图。想要此插件,可添加公众号【白马与少年】回复【SD】。 3. 【SD】告别提示词颜色污染!Cutoff 插件: 作者为白马少年,发布于 20230811 20:01,原文网址:https://mp.weixin.qq.com/s/xVskDEjDUET6yFo1YSZvTg 。在使用 Stable Diffusion 绘画时会出现颜色词汇互相污染的情况,此插件可解决该问题。因未收录到官方插件列表,可到 https://github.com/hnmr293/sdwebuicutoff 或作者云盘链接下载,安装后重启即可看到该插件。
2024-12-30
怎么学习COZE平台的操作?要全面详细
以下是全面学习 COZE 平台操作的方法: 1. 前置条件:起码已经使用过 Coze,并亲自搭建过一些简单的工作流。 2. 重点学习资源: 官方案例非常值得学习,不要错过优质资源。 观看 90 分钟的视频教程,文档教程为辅。例如“【90 分钟视频教程】全网最详细的 Coze AI 应用教学”中的案例演示,如 Coze 的创意写真馆应用:https://www.coze.cn/template/project/7442139374751629323? 以及 。 3. 操作步骤: 对于不了解 Coze 操作的情况,可以按照以下步骤完成 Agent 最后的测试与封装: 试运行整个工作流,验证整体运行效果,包括响应速度、生成质量。点击「试运行」,把待精读文章输入「开始节点」的{{BOT_USER_INPUT}},观察流程在 1 分钟内是否运行完成,最终输出的“回答内容”是否符合预期。 迭代优化工作流,提升性能。此步骤可自行按照配置思路进行细致优化。 在外层 bot 中封装工作流。 进行外层 bot 调试。 完成以上步骤后,即可发布 bot 。
2025-01-08
我是否可以在飞书上传我的相关文档,然后把这些文档作为知识库进行对话,若可以,如何操作
在飞书上可以上传您的相关文档并将其作为知识库进行对话。具体操作如下: 1. 您需要一个额外的软件:AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 2. 在 AnythingLLM 中,有一个 Workspace 的概念,您可以创建自己独有的 Workspace 与其他项目数据进行隔离。操作步骤为: 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,AnythingLLM 提供了两种对话模式: Chat 模式:大模型会根据自己的训练数据和您上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 测试对话。 3. 另外,您还可以参考以下操作在飞书上创建知识库并上传文本内容: 登录 。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入知识库页面,并单击创建知识库。在弹出的页面配置知识库名称、描述,并单击确认(一个团队内的知识库名称不可重复,必须是唯一的)。 在单元页面,单击新增单元。 在弹出的页面选择要上传的数据格式(默认是文本格式),然后选择一种文本内容上传方式完成内容上传。上传方式如下: 本地文档: 在文本格式页签下,选择本地文档,然后单击下一步。 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。目前支持上传.txt、.pdf、.docx 格式的文件内容,每个文件不得大于 20M,一次最多可上传 10 个文件。当上传完成后单击下一步。 选择内容分段方式: 自动分段与清洗:系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据。 自定义:手动设置分段规则和预处理规则。分段标识符:选择符合实际所需的标识符。分段最大长度:设置每个片段内的字符数上限。文本预处理规则:替换掉连续的空格、换行符和制表符,删除所有 URL 和电子邮箱地址。单击下一步完成内容上传和分片。
2025-01-07
我想弄一个自己的本地知识库,如何操作
以下是创建本地知识库的操作步骤: 1. 了解 RAG 技术: 利用大模型搭建知识库是 RAG 技术的应用。 在搭建本地知识库前,需对 RAG 有大概了解。 RAG 是当需要依靠不在大模型训练集中的数据时,先检索外部数据,再在生成步骤中将其传递给 LLM。 RAG 应用可抽象为文档加载、文本分割、存储、检索、输出 5 个过程。 文档加载可从多种来源加载文档,LangChain 提供 100 多种不同的文档加载器。 2. 安装和配置 AnythingLLM: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 3. 构建本地知识库: 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 首先创建工作空间。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 完成配置后进行测试对话。 4. 上传文本内容: 在文本格式页签选择本地文档,然后单击下一步。 将文档拖拽到上传区或单击上传区域选择要上传的文档,目前支持上传.txt、.pdf、.docx 格式的文件,每个文件不得大于 20M,一次最多可上传 10 个文件。 上传完成后单击下一步,选择内容分段方式,包括自动分段与清洗(系统自动分段和处理)和自定义(手动设置分段规则和预处理规则)。 自定义分段时,可设置分段标识符、分段最大长度和文本预处理规则(如替换连续空格、换行符和制表符,删除所有 URL 和电子邮箱地址)。 单击下一步完成内容上传和分片。
2025-01-06
列车国内最强的图像生成类AI并进行简单介绍和基础教程操作
目前国内图像生成类 AI 有很多优秀的产品,难以明确指出哪一个是最强的。一些常见且表现出色的图像生成类 AI 包括百度的文心一格、字节跳动的云雀等。 以文心一格为例,其基础操作教程通常如下: 1. 访问文心一格的官方网站。 2. 注册并登录账号。 3. 在操作界面中输入您想要生成图像的描述关键词。 4. 选择生成图像的风格、尺寸等参数。 5. 点击生成按钮,等待系统生成图像。 不同的图像生成类 AI 可能在操作细节上有所差异,但大致流程相似。您可以根据自己的需求和使用体验选择适合您的图像生成类 AI 工具。
2024-12-26
我想借助AI帮我理解学术名词,需要如何操作?
要借助 AI 帮助您理解学术名词,您可以采取以下几种操作方式: 1. 使用在线智能语言模型工具,如 ChatGPT 等,向其清晰准确地描述您想要理解的学术名词,并提出您的疑问和需求。 2. 利用知识问答类的 APP 或网站,输入相关学术名词,获取相关的解释和说明。 3. 对于一些特定领域的学术名词,还可以查找专门针对该领域的 AI 辅助学习工具。 在与 AI 交流时,尽量详细地描述您的困惑和期望,以便获得更准确和有用的回答。
2024-12-26
我想要让AI来操作,我这个电脑,然后呢?去充当一个AI客服的角色去回答微信上的问题有什么办法吗?
目前在微信中,Coze 平台是一个 AI 智能体创作平台,可以根据需求构建 AI 机器人并发布到多种社交平台。微信的不同功能在与 AI 对接上有所差异: 1. 个人微信/微信群:Coze AI 平台之前不支持直接对接,但国内版正式发布 API 接口功能后,直接对接已成为可能。 2. 微信公众号:Coze AI 平台支持对接,能让 AI 机器人自动回复用户消息。 3. 微信服务号:同样支持对接,可帮助企业提升服务效率。 4. 微信客服:Coze AI 平台支持对接,使 AI 机器人能够自动回答用户咨询,提高客服响应速度。 在把 AI 大模型能力接入微信后,对于类似客服的应用场景,存在模型幻觉导致胡乱回答的问题。对于非技术从业者,落地场景存在困难。一个问答机器人的界面配置包括 AI 模型、提示词、知识库。
2024-12-20