直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何用SD给线稿上色

回答

以下是使用 SD 给线稿上色的方法:

  1. 准备关键词:正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切您不想要的东西。例如正关键词:((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style。负关键词:back and white,green,blue,purple。
  2. 选择真实系大模型,如 revAnimated v1.2.2 版本。
  3. 注意尺寸:尺寸最好和您的草稿图保持一致,如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。
  4. 最重要的 ControlNet 设置:
    • 上传自己的草图到 ControlNet,点击启用。记得点💥的图标让预处理器生效。
    • 点击“反转输出颜色”。
    • 在模型里面选择“canny”的模型。
    • 接着去设置前面的内容:
      • 选择合适的大模型,如想要生成二次元的图,就要选择相应的模型。
      • 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定上什么颜色。
  5. ControlNet 的预处理器分类理解:
    • 线条约束类:通过轮廓线来规定绘图的范围。
    • canny 边缘检测:适用于线条比较精细的图片。
    • scribble 涂鸦:适合粗犷的画风。
    • softedge 软边缘检测:对边缘的细节保留得更多,特别是有头发这类细节的时候。
    • lineart 线稿提取:可能是 ControlNet 目前最强的线稿上色功能。
    • mlsd 直线线条检测:一般用在建筑或者室内设计上。

您可以根据具体需求和线稿特点选择合适的方法和参数进行上色。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:线稿上色Midjourney+Stable Diffusion

关键词正关键词主要前面添加了增加照片质感常用的+mj生成线稿的关键词调整(去掉mj里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数负关键词看自己的效果添加。添加一切你不想要的东西,我前面调用了词嵌入(bad_prompt_version2-neg,badhandv4,easynegative)需要去c站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候。。却起到了反作用,强行给小猫咪小动物5个手指(建议不加,或者建议生成的时候加,放大的时候去掉)正关键词((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style,负关键词:back and white,green,blue,purple,真实系大模型:revAnimated v1.2.2版本尺寸最好和你的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸最重要的ControlNet设置上传自己的草图到ControlNet,点击启用。记得点💥的图标让预处理器生效

教程:超详细的Stable Diffusion教程

随着AI绘画越来越火,很多人都会说将来可能很多画师的职业都受到威胁了但是,会用AI绘画的画师一定会比那些不会AI绘画的画师更有优势当别人为了给线稿上色,花了一天的时间而你一分钟不到就出了一张质量不错的图单是工作效率上就领先别人很多了下面这张就是我在网上随便找的一张线稿图,通过SD上色出来的一张照片这也是通过使用“ControlNet”这个功能生成的首先,我们点开"ControlNet"的状态栏①在空白的地方上传自己的线稿图②点击“启用”③点击“反转输出颜色”④在模型里面选择“canny”的模型接着去设置我们前面的内容①选择合适的大模型我想要生成二次元的图,就要选择相应的模型②关键词跟我们写关键词一样,先写照片质量的关键词(比如:最高质量,大师杰作等)接着我们就可以指定上什么颜色了比如我输入的就是:1可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛,最后还加上一个简单的背景想要色彩更加细节,就可以通过输入更多的关键词来控制照片负面关键词只要复制前面的就可以就这样不管再复杂的线稿,在SD里面都可以很快速的上好颜色

【SD】最强控制插件ControlNet(1)附模型下载

那ControlNet的预处理器有多少种呢?我们打开下拉列表就可以看到,目前最新的ControlNet v1.1.150版本,一共有37种。很多同学看到这里估计要懵了,我怎么知道该使用哪一种预处理,并且它会变成什么效果呢?接下来。我们将这些预处理器做一个分类理解。线条约束类:它可以通过轮廓线来规定绘图的范围。canny边缘检测:还是用库里的动作图作为例子,可以看到预处理器精确地找到了人物的轮廓边缘,并且进行了重绘,适用于线条比较精细的图片。scribble涂鸦:适合粗犷的画风,灵魂画手的拯救器。softedge软边缘检测:同样是保留轮廓边缘进行绘图,相比于canny,可以看到线条较粗且有柔化的部分,这样的处理对边缘的细节保留得更多,特别是有头发这类细节的时候,但未必有canny刻画的那么细。lineart线稿提取:这个是ControlNet1.1版本新出的预处理和模型,可能是ControlNet目前最强的线稿上色功能了。我从花瓣上找了一张线稿图来试验一下,这幅线稿来自画师“原画人”的创作。我们可以先通过invert预处理将白底黑线处理成黑底白线,因为ControlNet中都是黑色作为背景。然后,将处理好的图拖到左边重新载入,切换到lineart预处理器和模型进行生成。文生图关键词填写——(Best quality,masterpiece),((girl)),solo,Blue hair,white clothes,white background。点击生成,得到上色稿。我接着用canny模型也绘制了一遍,可以对比一下这两款模型上色的差别,大家自己感受一下。mlsd直线线条检测:这个线条检测和之前的几个有一些不同,它一般用在建筑或者室内设计上。

其他人在问
AI绘画如何给线稿上色?
以下是关于 AI 绘画给线稿上色的方法: 1. 使用 Stable Diffusion 上色: 点开“ControlNet”的状态栏。 在空白处上传自己的线稿图。 点击“启用”。 点击“反转输出颜色”。 在模型里选择“canny”的模型。 选择合适的大模型,如生成二次元的图就选择相应模型。 输入关键词,先写照片质量的关键词(如最高质量、大师杰作等),接着指定颜色(如 1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛),还可加上简单背景。想要色彩更细节,可输入更多关键词控制照片,负面关键词复制前面的即可。 2. Midjourney + Stable Diffusion 组合上色: 用 Midjourney 生成线稿,PS 稍微修正错误的地方。 用 ControlNet 控制,Stable Diffusion 上色。 Midjourney 生成线稿的关键词如:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive 3. 进阶玩法: 用 MJ 的 Retexture 功能,写提示词或垫图功能给着色画上色。 用即梦参考功能,写提示词或垫图功能给着色画上色。 此外,着色画是未上色原稿,提供基础框架让创作者添加颜色,其艺术效果体现在色彩丰富性、情感表达、细节和纹理、创意发挥等方面。在 AI 绘画中,关键词结构思路包括基础描述、风格指定、色彩要求、细节强调等。
2024-12-04
怎么给线稿上色
以下是给线稿上色的方法: 1. 使用 Midjourney 和 Stable Diffusion 结合的方法: 生成线稿:使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive”。 PS 修正:对生成的线稿在 PS 中手动重绘错误的地方。 上色设置: 正关键词:添加增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。如“,CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style”。 负关键词:根据效果添加,如“back and white,green,blue,purple”。 真实系大模型:如“revAnimated v1.2.2 版本”。 尺寸:最好和草稿图保持一致,若爆显存可保持比例缩小。 ControlNet 设置:上传自己的草图到 ControlNet,点击启用,记得点💥的图标让预处理器生效。 2. 单独使用 Stable Diffusion 的方法: 上传线稿图:点开“ControlNet”的状态栏,在空白处上传线稿图,点击“启用”和“反转输出颜色”,在模型里选择“canny”的模型。 设置内容: 选择合适的大模型,如生成二次元图选择相应模型。 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定颜色,如“1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛”,还可加上简单背景。负面关键词可复制前面的。
2024-11-08
sd的提示词有哪些语法
以下是关于 SD 提示词的语法: 1. 多个提示词之间使用英文半角符号“,”分隔,例如:masterpiece,best quality,ultradetailed,illustration,closeup,straight on,face focus,1girl,white hair,golden eyes,long hair,halo,angel wings,serene expression,looking at viewer。 2. 一般而言,概念性、大范围、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。大致顺序为:。 3. 每个词语本身自带的权重可能不同,模型训练集中较多出现的关键词,输入一个词就能极大影响画面;较少出现的关键词,输入多个相关词汇对画面影响效果可能有限。提示词的顺序很重要,越靠后的权重越低。关键词最好具有特异性,措辞越具体越好,避免抽象和有解释空间的措辞。 4. 可以使用括号人工修改提示词的权重,例如: 将权重减少为原先的 25%。 5. 可以通过 Prompt Editing 使得 AI 在不同的步数生成不一样的内容,语法为:例如:a,100 步采样,一开始。提示词为:fantasy landscape with a mountain and an oak in foreground shoddy 在第 25 步后,提示词为:fantasy landscape with a lake and an oak in foreground in background shoddy 在第 50 步后,提示词为:fantasy landscape with a lake and an oak in foreground in background masterful 在第 60 步后,提示词为:fantasy landscape with a lake and an oak in background masterful 在第 75 步后,提示词为:fantasy landscape with a lake and a christmas tree in background masterful。 6. 提示词还可以轮转,比如:在第一步时,提示词为“cow in a field”;在第二步时,提示词为"horse in a field.";在第三步时,提示词为"cow in a field",以此类推。 7. 交替词:in a field 可以支持多个词交替。 8. 可组合扩散(AND 语法):a cat AND a dog 比如想画一个猫和狗的混合物种,每一个要混合的东西支持加权重,比如 a cat:1.2 AND dog AND a benguin:2.2。通过继续向总数添加更多提示,这可以方便地生成微调的递归变化,比如 log AND frog:0.13 AND yellow eyes:0.08 。 请注意,权重值最好不要超过 1.5。
2024-12-19
SD 怎么赚钱
Stable Diffusion(SD)赚钱的方式有多种可能性: 1. 利用 SD 生成真人 AI 美女相关内容,创建账号吸引流量并实现变现。 2. 为用户生成个性化的头像、壁纸并收取费用。 3. 借助 SD 辅助完成动漫图画、插画等创作,并通过相关渠道获取收益。 4. 后续可能会有更多关于 SD 实际变现方式和案例的详细介绍。 需要注意的是,SD 完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。Stable Diffusion 模型第一个版本训练耗资 60 万美元,而提供资金支持正是 Stability AI 公司,其成立于 2020 年,最初资金都来自创始人兼 CEO Emad Mostaque。目前市面上主流的 AI 绘图软件除了 SD 还有 Midjourney,Midjourney 操作简单方便但需付费和科学上网,而 SD 开源免费但需要较好的电脑配置。
2024-12-19
sd最新的模式是什么
Stable Diffusion(SD)最新的模式包括: 1. 隐藏在光里的秘密,AI造字光与影的艺术中,将 lightingBasedPicture 模型的终止时机由 0.6 提高到 0.7 能使文字更好识别,但再提高字会显得太突兀,需把握平衡。 2. Stability AI 正式发布了期待已久的 SDXL 1.0。SDXL 1.0 由两个模型组成,第二个模型能生成更鲜艳、更准确的颜色,且比前身具有更好的对比度、光照和阴影。SDXL 1.0 是所有开放获取图像模型中参数数量最多的模型之一,拥有 3.5B 参数基础模型和 6.6B 参数模型集成管道。 如果您想要最新的 controlnet 模型,可以添加公众号【白马与少年】,回复【SD】获取。
2024-12-17
Sd文生图的专业术语有哪些
以下是一些关于 SD 文生图的专业术语: 1. 内容型提示词:主要用于描述想要的画面,如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”。 2. 标准化提示词:例如“,drawing,paintbrush”。 3. 权重:通过括号和特定数值来增加提示词的权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。 4. 反向提示词:告诉 AI 不要的内容,如“NSFw,”。 5. 采样迭代步数:指 AI 绘画去噪的次数,步数越高绘画越清晰,但绘画速度越慢,通常数值控制在 20 40 之间较好。 6. 采样方法:AI 生成图像时的特定算法,常用的有“Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM”。 7. 比例:尺寸并非越大越好,模型练图通常按 512x512 的框架绘制,高宽比尽量在这个数值附近。高清修复可放大图像倍率,高宽比主要控制画面比例。
2024-12-16
SD教程
以下是关于 SD 教程的相关内容: SD 做二维码教程: 好看的二维码欣赏:qrbtf 等。 方法原文地址:https://stablediffusionart.com/qrcode/ 最近的相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作的方法。 微信的二维码需要转一下:https://cli.im/weixin SD 做中文文字教程: 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:29 60 SD 的其他实践教程: 线稿上色 Midjourney + Stable Diffusion 猫咪狗狗 lora 字体设计机甲战士 做盲盒 平面变 3D MJ 出图 SD 放大 七夕字体和图 可爱毛粘字体
2024-12-05
给我一个翻译sd作图提示词的网址
以下是一些可以翻译 SD 作图提示词的网址和相关信息: DeepL 翻译:https://www.deepl.com/translator ,可以下载客户端使用。 网易有道翻译:可以通过 ctrl+alt+d 快速截图翻译。 功能型辅助网站: http://www.atoolbox.net/ ,可以通过选项卡的方式快速填写关键词信息。 https://ai.dawnmark.cn/ ,每种参数都有缩略图可参考,方便更直观地选择提示词。 C 站(https://civitai.com/),每一张图都有详细参数,可点击复制数据按钮,粘贴到正向提示词栏,Stable Diffusion 可自动匹配所有参数,但要注意图像作者使用的大模型和 LORA。 此外,还有提示词自动翻译插件 promptallinone,安装方式如下: 在扩展面板中搜索 promptallinone 直接安装。 或将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下,安装完成后重启 webUI 即可使用。使用时,第一个图标用来设置插件语言为简体中文,第二个图标点开可设置翻译接口,点击第一行下拉菜单可选择翻译软件。
2024-12-04
老照片上色
以下是使用 AI 给老照片上色的步骤和相关注意事项: 1. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。若想了解更多,可参考文章——。 2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,可在显存不够的情况下将图片放大到足够的倍数。 4. 对于人物照片的还原,选择 realisian 的写实大模型。提示词直接描述颜色和对应的内容,比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。 5. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果会更好。但可能会出现颜色不精准出现在想要位置、提示词相互污染以及背景不能完全统一等问题。 6. 对于内容较多的照片,如外婆带着妈妈和舅舅的合影,可能需要逐个上色,再用 ps 进行融合。 在给老照片上色的过程中,可能会遇到各种复杂的情况,需要根据具体照片的特点和需求进行灵活处理。
2024-09-02
把老照片上色
以下是使用 AI 给老照片上色的步骤和方法: 1. 图片处理:将图片发送到图生图中,打开 stableSR 脚本放大两倍。stableSR 放大插件是对原图还原最精准、重绘效果最好的。可参考相关文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时将图片放大到足够倍数。 2. 模型和提示词选择:对于人物照片还原,选择 realisian 的写实大模型。提示词直接描述颜色和对应内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。 3. 复杂照片处理:对于人物多、场景复杂、像素低的照片,可先在 ps 里进行角度调整和照片裁切。直接上色可能效果不佳,如像加了黄色滤镜或颜色不精准、有污染。对于内容过多的照片,可放弃人物服装颜色指定,只给场景方向,如从网上找照片让 AI 匹配色调。可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,关键词如蓝天、绿树、灰石砖等。最后进行脸部修复和放大。
2024-08-10