以下是关于 SD(Stable Diffusion)的相关信息:
AIGC:AI generated content,又称为生成式AI,意为人工智能生成内容。例如AI文本续写,文字转图像的AI图、AI主持人等,都属于AIGC的应用。类似的名词缩写还有UGC(普通用户生产),PGC(专业用户生产)等。能进行AIGC的产品项目也很多,能进行AIGC的媒介也很多包括且不限于语言文字类:OpenAI的GPT,Google的Bard,百度的文心一言,还有一种国内大佬下场要做的的LLM都是语言类的。语音声音类:Google的WaveNet,微软的Deep Nerual Network,百度的DeepSpeech等,还有合成AI孙燕姿大火的开源模型Sovits。图片美术类:早期有GEN等图片识别/生成技术,去年大热的扩散模型又带火了我们比较熟悉的、生成质量无敌的Midjourney,先驱者谷歌的Disco Diffusion,一直在排队测试的OpenAI的Dalle·2,以及stability ai和runaway共同推出的Stable Diffusion...[heading1]SD是什么?[content]SD是Stable Diffusion的简称。是它是由初创公司StabilityAI、CompVis与Runway合作开发,2022年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像。Stable Diffusion是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。SD的代码模型权重已公开发布,可以在大多数配备有适度GPU的电脑硬件上运行。当前版本为2.1稳定版(2022.12.7)。源代码库:github.com/Stability-AI/stablediffusion我们可以通过一系列的工具搭建准备,使用SD进行想要的图片aigc(心想事成的魔法施与)。
二维码做好之后,我们进入SD的版块,需要下载两个SD的ControlNET模型和一个预处理器,我已经打包好了,可以添加我的公众号【白马与少年】,回复【SD】就发给你。在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\sd-webui-aki-v4.2\extensions\sd-webui-controlnet\models”这个路径下,后缀为【.safetensors】的放在“……\sd-webui-aki-v4.2\models\ControlNet”这个路径下。我这边随便选择一个“cheeseDaddys”的模型,填入一段描绘梦幻森林的关键词。在这个美化二维码的过程中,关键词是非常重要的。接着,我们把迭代步数(Steps)设置到15,采样选择DPM++2M Karras,图像大小设置到768*768。
在这里,我们携手步入艺术与科技交织的梦幻领域,一同解锁SD(Stable Diffusion)AI绘画的无限可能。不论您是绘画新手,渴望在数字画布上初次挥洒创意;还是资深画匠,寻求在技术洪流中激发新灵感,希望这里会是你的理想栖息地。【不熟悉SD的小伙伴可以先看下面的入门教程】[工具教程:Stable Diffusion](https://waytoagi.feishu.cn/wiki/FUQAwxfH9iXqC9k02nYcDobonkf?from=from_copylink)[heading1]