直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

怎么给线稿上色

回答

以下是给线稿上色的方法:

  1. 使用 Midjourney 和 Stable Diffusion 结合的方法:
    • 生成线稿:使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background --niji 5 --style expressive”。
    • PS 修正:对生成的线稿在 PS 中手动重绘错误的地方。
    • 上色设置:
      • 正关键词:添加增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。如“((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style”。
      • 负关键词:根据效果添加,如“back and white,green,blue,purple”。
      • 真实系大模型:如“revAnimated v1.2.2 版本”。
      • 尺寸:最好和草稿图保持一致,若爆显存可保持比例缩小。
      • ControlNet 设置:上传自己的草图到 ControlNet,点击启用,记得点💥的图标让预处理器生效。
  2. 单独使用 Stable Diffusion 的方法:
    • 上传线稿图:点开“ControlNet”的状态栏,在空白处上传线稿图,点击“启用”和“反转输出颜色”,在模型里选择“canny”的模型。
    • 设置内容:
      • 选择合适的大模型,如生成二次元图选择相应模型。
      • 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定颜色,如“1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛”,还可加上简单背景。负面关键词可复制前面的。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:线稿上色Midjourney+Stable Diffusion

关键词正关键词主要前面添加了增加照片质感常用的+mj生成线稿的关键词调整(去掉mj里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数负关键词看自己的效果添加。添加一切你不想要的东西,我前面调用了词嵌入(bad_prompt_version2-neg,badhandv4,easynegative)需要去c站下载,这些主要是为了控制人手部错误的,在最后一步放大的时候。。却起到了反作用,强行给小猫咪小动物5个手指(建议不加,或者建议生成的时候加,放大的时候去掉)正关键词((white background)),(8k,raw photo,best quality,masterpiece),(photon mapping,radiosity,physically-based rendering,automatic white balance),CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style,负关键词:back and white,green,blue,purple,真实系大模型:revAnimated v1.2.2版本尺寸最好和你的草稿图保持一致(前面的步骤没有截图。这里重新做了一张)如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸最重要的ControlNet设置上传自己的草图到ControlNet,点击启用。记得点💥的图标让预处理器生效

教程:线稿上色Midjourney+Stable Diffusion

在学习AI绘画这段时间,发现AI绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如上面是用midjourney生成线稿,PS稍微做一些修正,再用controlnet控制,stable diffusion上色,多套AI组合拳,可以快速生成效果惊艳的图作者:三思先欣赏下作品[heading3]1、线稿产出[content]mj关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background --niji 5 --style expressive[heading3]2、ps手动手动重绘错误的地方[content]有些图出来没有阴影容易飘,可以自己画一个出来

教程:超详细的Stable Diffusion教程

随着AI绘画越来越火,很多人都会说将来可能很多画师的职业都受到威胁了但是,会用AI绘画的画师一定会比那些不会AI绘画的画师更有优势当别人为了给线稿上色,花了一天的时间而你一分钟不到就出了一张质量不错的图单是工作效率上就领先别人很多了下面这张就是我在网上随便找的一张线稿图,通过SD上色出来的一张照片这也是通过使用“ControlNet”这个功能生成的首先,我们点开"ControlNet"的状态栏①在空白的地方上传自己的线稿图②点击“启用”③点击“反转输出颜色”④在模型里面选择“canny”的模型接着去设置我们前面的内容①选择合适的大模型我想要生成二次元的图,就要选择相应的模型②关键词跟我们写关键词一样,先写照片质量的关键词(比如:最高质量,大师杰作等)接着我们就可以指定上什么颜色了比如我输入的就是:1可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛,最后还加上一个简单的背景想要色彩更加细节,就可以通过输入更多的关键词来控制照片负面关键词只要复制前面的就可以就这样不管再复杂的线稿,在SD里面都可以很快速的上好颜色

其他人在问
如何用SD给线稿上色
以下是使用 SD 给线稿上色的方法: 1. 准备关键词:正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切您不想要的东西。例如正关键词:,CG,unity,official art,amazing,finely detail,an extremely delicate and beautiful,extremely detailed,3d,rendering,c4d,blender,octane render,Chinese festive color scheme,open mouth,1 tooth,The cat has a pair of white gloves,a cute cat cartoon IP character,black line sketch,wearing a hat,wearing a collar around the neck,carrying a huge red bag,matching rope and straps at his wrists,Chinese element style,poular toys,blind box toys,Disney style。负关键词:back and white,green,blue,purple。 2. 选择真实系大模型,如 revAnimated v1.2.2 版本。 3. 注意尺寸:尺寸最好和您的草稿图保持一致,如果尺寸太大爆显存可以保持和草图一样的比例缩小尺寸。 4. 最重要的 ControlNet 设置: 上传自己的草图到 ControlNet,点击启用。记得点💥的图标让预处理器生效。 点击“反转输出颜色”。 在模型里面选择“canny”的模型。 接着去设置前面的内容: 选择合适的大模型,如想要生成二次元的图,就要选择相应的模型。 输入关键词,先写照片质量的关键词(比如:最高质量,大师杰作等),接着指定上什么颜色。 5. ControlNet 的预处理器分类理解: 线条约束类:通过轮廓线来规定绘图的范围。 canny 边缘检测:适用于线条比较精细的图片。 scribble 涂鸦:适合粗犷的画风。 softedge 软边缘检测:对边缘的细节保留得更多,特别是有头发这类细节的时候。 lineart 线稿提取:可能是 ControlNet 目前最强的线稿上色功能。 mlsd 直线线条检测:一般用在建筑或者室内设计上。 您可以根据具体需求和线稿特点选择合适的方法和参数进行上色。
2024-12-04
AI绘画如何给线稿上色?
以下是关于 AI 绘画给线稿上色的方法: 1. 使用 Stable Diffusion 上色: 点开“ControlNet”的状态栏。 在空白处上传自己的线稿图。 点击“启用”。 点击“反转输出颜色”。 在模型里选择“canny”的模型。 选择合适的大模型,如生成二次元的图就选择相应模型。 输入关键词,先写照片质量的关键词(如最高质量、大师杰作等),接着指定颜色(如 1 可爱女孩,五官精致,精致眼睛和嘴巴,银色长发,白皙的皮肤,水汪汪的大眼睛),还可加上简单背景。想要色彩更细节,可输入更多关键词控制照片,负面关键词复制前面的即可。 2. Midjourney + Stable Diffusion 组合上色: 用 Midjourney 生成线稿,PS 稍微修正错误的地方。 用 ControlNet 控制,Stable Diffusion 上色。 Midjourney 生成线稿的关键词如:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive 3. 进阶玩法: 用 MJ 的 Retexture 功能,写提示词或垫图功能给着色画上色。 用即梦参考功能,写提示词或垫图功能给着色画上色。 此外,着色画是未上色原稿,提供基础框架让创作者添加颜色,其艺术效果体现在色彩丰富性、情感表达、细节和纹理、创意发挥等方面。在 AI 绘画中,关键词结构思路包括基础描述、风格指定、色彩要求、细节强调等。
2024-12-04
老照片上色
以下是使用 AI 给老照片上色的步骤和相关注意事项: 1. 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。stableSR 放大插件是所有插件中对原图还原最精准、重绘效果最好的。若想了解更多,可参考文章——。 2. 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写,以免对原图产生干扰。 3. 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,可在显存不够的情况下将图片放大到足够的倍数。 4. 对于人物照片的还原,选择 realisian 的写实大模型。提示词直接描述颜色和对应的内容,比如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景。 5. ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果会更好。但可能会出现颜色不精准出现在想要位置、提示词相互污染以及背景不能完全统一等问题。 6. 对于内容较多的照片,如外婆带着妈妈和舅舅的合影,可能需要逐个上色,再用 ps 进行融合。 在给老照片上色的过程中,可能会遇到各种复杂的情况,需要根据具体照片的特点和需求进行灵活处理。
2024-09-02
把老照片上色
以下是使用 AI 给老照片上色的步骤和方法: 1. 图片处理:将图片发送到图生图中,打开 stableSR 脚本放大两倍。stableSR 放大插件是对原图还原最精准、重绘效果最好的。可参考相关文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能,可在显存不够时将图片放大到足够倍数。 2. 模型和提示词选择:对于人物照片还原,选择 realisian 的写实大模型。提示词直接描述颜色和对应内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。 3. 复杂照片处理:对于人物多、场景复杂、像素低的照片,可先在 ps 里进行角度调整和照片裁切。直接上色可能效果不佳,如像加了黄色滤镜或颜色不精准、有污染。对于内容过多的照片,可放弃人物服装颜色指定,只给场景方向,如从网上找照片让 AI 匹配色调。可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,关键词如蓝天、绿树、灰石砖等。最后进行脸部修复和放大。
2024-08-10