Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

用哪个ai工具可以做双图,人物没变化

Answer

以下是一些可以用于生成双图且人物没变化的 AI 工具及相关信息:

  1. Controlnet:正式绘画目前有两种出图方式,包括图生图和 controlnet。但如果底图质量不够,想要 AI 更自由发挥,除了调高重绘幅度,还可以在 controlnet 上有更多探索。输入正负 TAG,设置好图片尺寸、迭代步数、采样器、重绘幅度后等待图片生成。
  2. Midjourney:在网页版中,传一张图片,右下角有小 icon,鼠标 hover 上去会出现 3 个 icon,最左边小人的 icon 可把图片当做角色参考。官方对于角色一致性也给了一些简单的小 Tips。用在 2D 和 3D 角色上效果较好。

您可以根据自己的需求选择适合的工具。

Content generated by AI large model, please carefully verify (powered by aily)

References

从游戏截图升级到KV品质,AI居然可以这样用!

正式绘画目前有两种出图方式,他们的区别为图生图和controlnet但如果底图质量不够,想要AI更自由发挥话,除了调高重绘幅度,还可以在controlnet上有更多的探索以上是用了canny找出画面的硬边缘,然后AI根据关键词和形状识别物体的效果,但人物服装和摩托的细节还是有了很大的改变,与游戏内容偏离较大。controlnet包含的功能很多且在不断地更新,本文就不展开详谈了,大家如果想多了解可以直接跳转B站深度学习~[https://www.bilibili.com/video/BV1Ds4y1e7ZB/?spm_id_from=333.337.search-card.all.click](https://www.bilibili.com/video/BV1Ds4y1e7ZB/?spm_id_from=333.337.search-card.all.click)输入正负TAG,设置好图片尺寸、迭代步数、采样器、重绘幅度后,等待图片接锅出炉!以下是个人使用的一些参数推荐

前Sora时代我最想做的AI短片——使用Pika、Pixverse、Runway、SVD四大AI视频工具

(这张双人关系的图我最后没用,因为四个工具都跑不出稳定的视频,我懒得Roll了)(角色一:扎马尾、穿白色T恤、穿牛仔裤的14岁女孩)(角色二:戴眼镜、灰色头发、穿灰色短衬衫的50岁男人)接着,确定了主场景,主场景是四面都是书柜的屋子,但是场景一致性太难保持了,所以我们取巧,用了穿书的方式,把场景分布到不同地区。在室内的镜头,因为AI对书房的理解也还比较相似,尽管有些穿帮的地方,还好主场景出现的时间不算长,倒也还能接受。解决了人物和场景一致性的问题,生图的障碍就还是双人关系镜头的部分。但这次要比上个视频做起来稍微容易一些,因为至少生成关系镜头没有那么麻烦了,MJ的语义理解好多了,部分镜头我们还比较喜欢,比如女孩能在镜子里看到妈妈这个镜头。但我们要自由地生成同场戏内不同角度的关系镜头,还是很难。比如女孩发现不对劲之后,回到书店,问阿叔怎么回事,阿叔没有说话,女孩生气离开这场戏,其实还需要一个两人在书店走廊里的中景或全景镜头,去展示两人的位置关系,但Roll得有点累了。

半个AI圈期待的Midjourney角色一致性首发评测 - 再入迷梦

还是能明显看出区别的。--cw 100的时候,人物的头饰、衣服都是大差不差的;--cw 0的时候,发型和衣服就全变了。至于用法,我比较习惯使用MJ的网页版,体验真不是好的一点半点,网址在此:https://alpha.midjourney.com/登进去之后,传一张图片,就会发现图片的右下角有一个小icon,鼠标hover上去以后就能看到出现了3个icon,最左边那个小人的icon就是把这张图片当做角色参考,中间那个链接icon就是作为风格参考,最右边那个就是仅作为图片prompt,就是传统意义上的图生图。当然,你也可以按住shift,点这三个按钮,就能把这三个全部点亮,形成cref + sref +图片prompt的超级组合拳。。。官方对于角色一致性,也给了一些简单的小Tips。真人和照片肯定是最难的,毕竟需要关注的细节太多,而且"神韵"是一个非常玄学的东西,有时候你就会觉得明明五官是一样的,但是为啥就是不像。。而用在2D和3D角色上,那肯定就会好很多了,毕竟只需要抓住几个主要特征就行,所以从这个功能本身上看,也能猜到,Niji V6的表现,肯定会比MJ V6要好很多。

Others are asking
生成式AI教育场景应用 项目式学习 中小学案例
以下是一些中小学在生成式 AI 教育场景应用中采用项目式学习的案例: 北京市新英才学校: 开设“AI 创作家”小学课后服务特色课程,12 个五、六年级的学生在老师的引导和帮助下,主导设计一款实用的桌游。 学生们提出解决学校面积大导致新生和访客迷路的问题,决定制作一款学校地图桌游。 课程中,学生有时听老师讲解人工智能知识和工具使用方法,有时自己写 prompt 与大语言模型对话,还使用文生图 AI 工具生成桌游卡牌背后的图案,手绘第一版学校地图,选择游戏机制并梳理游戏流程。 在教育领域,生成式 AI 带来了诸多改变: 解决了教育科技长期以来在有效性和规模之间的权衡问题,可大规模部署个性化学习计划,为每个用户提供“口袋里的老师”,如实时交流并给予发音或措辞反馈的语言老师。 出现了众多辅助学习的产品,如教授新概念、帮助学习者解决各学科问题、指导数学作业、提升写作水平、协助创建演示文稿等。
2025-02-18
生成式AI教育场景应用 中小学案例
以下是北京市新英才学校在中小学教育场景中生成式 AI 的应用案例: 特色课程方面:学校开设了“AI 创作家”小学课后服务特色课程,12 个五、六年级的学生在老师的引导下,用 AIGC 工具设计一款实用的桌游。学生主导从收集需求、定义问题到设计背景、机制、内容、视觉,再到测试、迭代的全过程。例如,为解决学校面积大导致新生和访客迷路的问题,学生决定做一款学校地图桌游。课程中,学生学习人工智能知识、使用工具写 prompt 与大语言模型对话,还使用 OpenInnoLab平台生成桌游卡牌图案、手绘地图、选择游戏机制、梳理游戏流程。此外,还邀请中国传媒大学的吴卓浩教授合作,采用“大学生,小学生同上一节课”的方式,大学生为小学生讲解 AI 工具、试玩桌游。本学期,学生们测试并迭代桌游,使用 3D 打印机打印配件,用 ChatGPT 和 Midjourney 增强视觉设计,用 Kimi 辅助编写说明书,还计划让学生尝试用文生音乐工具 Suno 制作歌曲加入桌游 2.0 版本。 英语主课方面:初中部的英语课也融入了 AIGC 工具。魏一然协助初中部的英文老师杨佳欣和刘奕玚进行探索。在课程初期,更多是老师带着学生使用 AIGC 工具,prompt 由学生提出,老师引导。例如,在研究学校食堂食物浪费问题时,老师带着学生与 ChatGPT 对话,了解处理方法,让 ChatGPT 为学生生成生词解释和例句,形成生词库,并灵活加工生词生成题目、游戏或文章帮助学生复习单词。在关于社交媒体的英语辩论课上,尝试让学生自主使用 AIGC 工具做辩论准备。
2025-02-18
我是一个前端,我想要从0开始学习AI,应该怎么样去切入比较好
如果您作为一名前端想要从 0 开始学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念。了解人工智能是什么,其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您将找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 首先,记住“生成”两个字,随便找一个国产 AI 进行交流,比如聊小学奥数题、写演讲稿、探讨 996 等话题,看看 AI 擅长和不擅长的方面,留下 1 2 个更顺手的增加使用深度。条件允许的话,也可以直接使用 ChatGPT 或者 Claude 来处理复杂任务。
2025-02-18
清华104页AI使用指南
以下是清华 104 页 AI 使用指南的相关内容: 智能纪要部分: 共学课程涵盖 config UI 从入门到精通,还有个人专栏研究报告、产品数据、全球投融资情况等内容,做项目时可查看细分赛道融资情况,也可学习 AI 功能创业,介绍了企业专栏内容如 Kimi 的技巧等。 提到了 AI 的案例和投稿,包含开发相关、微信机器人、人物角色等内容,还有日报动态、法律法规、历史更新和社区介绍等,布置了关于 AI 兴趣方向的小作业。 介绍了 CONFIUI 生态大会东京站 11 月 16 17 日的活动内容及报名,包括社区共创项目、大奖、首届活动情况、海外创作者共学等。 总结了关于 AI 知识库使用及 AIPO 活动的介绍,包括使用情况、发起背景、内容安排及相关资源等;AIPO 线下活动及 AI 相关探讨,包括规则、玩法、重要地位和研究方向等;way to AGI 社区活动与知识库介绍,包括活动安排、材料准备、使用和内容更新等;还包括时代杂志评选的领军人物、AI 相关名词解释、知识库的信息来源、社区共创项目、学习路径、经典必读文章、初学者入门推荐、历史脉络类资料等。 介绍了 AI 相关技术与活动,如 AI 音乐创作、数字人语音合成、config UI 的应用,以及社区共创项目如东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等,还有作业与报名、线下寄送物料组织活动、AI 春晚即将开始、AIPO 活动及相关挑战、共学活动与技能提升、硬件机器人材料购买、自媒体发布与流量扶持、活动奖项与历史玩法、工具使用与新大赛预告等。
2025-02-17
剧本创作有哪些AI工具
以下是一些在剧本创作中可以使用的 AI 工具: 1. 文本生成工具:如 GPT4、Claude、Kimi、智谱清言、文心一言等,可帮助生成故事创意、角色台词等。 2. 视频工具: Pika、Pixverse、Runway、SVD 可用于视频创作。 Junie 在电影制作中使用了多种工具,包括 AI 图像生成工具如 Stable Diffusion、Midjourney v5.2、DALL·E;AI 动画工具如 Pika、Runway、Deforum;口型同步工具 DID;AI 旁白工具 ElevenLabs;剪辑工具 Premiere;文字翻译工具 ChatGPT。 3. 图像工具:Stable Diffusion、Midjourney v5.2 可生成富有想象力的角色和场景等画面。 4. 声音工具:可用于背景音乐、音效、角色配音、声音克隆等。 在剧本创作过程中,除了使用工具,还需要注重故事的原创性和改编,可从自身或他人的经历、经典 IP 等获取灵感。同时,多实践、多与他人讨论也是提升剧本质量的重要方式。
2025-02-17
剧本创作有哦哪些AI工具
以下是一些常用于剧本创作的 AI 工具: 1. 文字生成方面:GPT4、Claude、Kimi、智谱清言、文心一言等,可用于生成剧本的文字内容。 2. 图像生成:Stable Diffusion、Midjourney v5.2、DALL·E 等,能为剧本创作提供灵感和视觉参考。 3. 视频相关:Pika、Runway、Deforum 等,可用于生成视频片段。 4. 音频方面:ElevenLabs 可用于生成旁白等音频内容。 5. 剪辑工具:Premiere、剪映等,用于对视频进行剪辑和后期处理。 在剧本创作过程中,还可以参考以下方法和思路: 1. 故事来源:可以从原创(如自身或周围人的经历、做过的梦、想象的故事等)或改编(如经典 IP、名著、新闻、二创等)入手。 2. 写作方法:编剧是有一定门槛的手艺,不要单纯套剧作理论和模板,要多写多实践,再结合看书总结经验。对于短片创作,可以从自身或朋友的经历改编入手,或者对触动自己的短篇故事进行改编。多与他人讨论故事,有助于修改和进步。 3. 项目脚本方面:例如画小二团队在《李清照》AI 视频创作中,文字使用 GPT 脚本,图片使用 Midjourney,视频使用 Runway,音频使用 ElevenLabs 和剪映,剪辑使用剪映,还用到了 PS、AE 等其他工具。同时,在故事创作时,可以按照特定的模板生成 Prompt,包括标题、设置、主角、反派角色、冲突、对话、主题、基调、节奏等方面,并分章节生成小说目录。
2025-02-17
主流的LORA 训练工具是什么?
主流的 LORA 训练工具包括: 1. B 站 UP 主“朱尼酱”的赛博丹炉,其界面友好、美观,适合新手入门。 2. 训练器,支持 Kolors 开源模型。 3. Kolors+Refiner,由 AIKSK 开发的工作流应用。 4. Kolors可图大模型XL 精修工作流,由@AiARTiST 非人类开发。 5. kolors+SDXL 细节修复+instant+ipa,由@谷尘 DesignDog 开发。 6. kolors 一键设计中文海报,由亦诚视觉开发。 7. ,魔搭社区官方模型。 8. InstantIDKolors 专属模型,由 InstantX 开发。
2025-02-18
我怎样用低代码工具去构建我的AI智能体?LLM应用?
以下是关于如何用低代码工具构建 AI 智能体和 LLM 应用的一些建议: 在构建基于 LLM 的应用时,Anthropic 建议先寻找最简单的解决方案,只在必要时增加复杂度。智能系统通常会以延迟和成本为代价来换取更好的任务表现,开发者需要考虑这种权衡是否合理。当需要更复杂的解决方案时,工作流适合需要可预测性和一致性的明确任务,而智能体则更适合需要灵活性和模型驱动决策的大规模场景。不过,对于许多应用来说,优化单个 LLM 调用(配合检索和上下文示例)通常就足够了。 目前有许多框架可以简化智能系统的实现,例如: 1. LangChain 的 LangGraph。 2. 亚马逊 Bedrock 的 AI Agent 框架。 3. Rivet(一个拖放式 GUI 的 LLM 工作流构建器)。 4. Vellum(另一个用于构建和测试复杂工作流的 GUI 工具)。 这些框架通过简化标准的底层任务(如调用 LLM、定义和解析工具、链接调用等)使入门变得容易,但它们往往会创建额外的抽象层,可能会使底层提示词和响应变得难以调试,也可能诱使开发者在简单设置就足够的情况下增加不必要的复杂性。建议开发者先直接使用 LLM API,许多模式只需要几行代码就能实现。如果确实要使用框架,请确保理解底层代码。 此外,还有以下相关工具和应用: 1. VectorShift:能在几分钟内构建和部署生成式人工智能应用程序,利用大型语言模型(例如 ChatGPT)构建聊天机器人、文档搜索引擎和文档创建工作流程,无需编码。 2. Unriddle:帮助更快阅读、写作和学习的工具,能简化复杂的主题,找到信息,提问并立即获得答案。 工具使用或函数调用通常被视为从 RAG 到主动行为的第一个半步,为现代人工智能栈增加了一个新的层。一些流行的原语如网页浏览(Browserbase、Tiny Fish)、代码解释(E2B)和授权+认证(Anon)已经出现,它们使 LLM 能够导航网络、与外部软件(如 CRM、ERP)交互并运行自定义代码。Omni 的计算 AI 功能体现了这种方法,它利用 LLM 直接输出适当的 Excel 函数到电子表格中,然后执行计算并自动生成复杂查询供用户使用。 详细示例请参考:https://github.com/anthropics/anthropiccookbook/tree/main/patterns/agents
2025-02-17
如何快速入门AI工具
以下是快速入门 AI 工具的一些建议: 1. 对于普通人来说,对 AI 最好的直观初接触有两个方面: 最低成本能直接上手试的工具是什么,自己能否亲自尝试。 现在最普遍/最好的工具是什么,能达到什么效果。 2. 虽然底层都是大模型,但 AI 工具各有侧重,不同公司也有各自的优化。关于每一种工具的详细入门、讲解和应用,WayToAIG 已经分好了类目。 3. 为了让普通人更直观地马上上手,可选择以下几种工具展开说明:聊天工具、绘画工具、视频工具、音乐工具。 4. 对于超出自己理解范围内的事情,最简单的方法就是试一试。学习新东西,百闻不如一练。 5. 在面向父母的“AI 布道”活动中发现,因“AI 工具”功能强大能做无数事情,反而在其与普通人之间形成了一道墙。AI 是未来必然的方向,其科普还有很长的路要走,但尽可能简单地试用它,是让普通人在这场 AI 浪潮中受益的最好方式,不论是什么人群。 6. 最后,如果想交流并一起在 AI 路上探寻,欢迎戳 。
2025-02-17
推荐可以辅助进行合同条款审查的AI工具
以下是一些可以辅助进行合同条款审查的 AI 工具: 1. AI Assist™:这是有史以来第一个公开发布的生成式 AI 支持的合同工具,使用 OpenAI 的 GPT4 让用户根据预先批准的条款语言立即对合同进行修订。 2. 智能合同审核:在智能导购的技术创新场景中,能够自动检查供应商合同条款合规性。
2025-02-17
音频驱动视频人物口型
以下是关于音频驱动视频人物口型的相关信息: PixVerse V3 : 本次更新内容丰富,包括已有能力升级,提供更精准的提示词理解能力和更惊艳的视频动态效果。 支持多种视频比例,如 16:9、9:16、3:4、4:3、1:1。 Style风格化功能重新回归升级,支持动漫、现实、粘土和 3D 四种风格选择,同时支持文生视频和图生视频的风格化。 全新上线了 Lipsync 功能,在生成的视频基础上,允许用户输入文案或上传音频文件,PixVerse 会自动根据文案或音频文件内容,对视频中的人物口型进行适配。 还有 Effect 功能,提供 8 个创意效果,包括变身僵尸、巫师帽、怪兽入侵等万圣节主题模板,一键实现创意构思。并且 Extend 功能支持将生成的视频再延长 5 8 秒,且支持控制延长部分的内容。 字节跳动开源的 LatentSync : 是精准唇形同步工具,能够自动根据音频调整角色嘴型,实现精准口型同步,无需复杂中间步骤。 提出“时间对齐”技术,解决画面跳动或不一致问题,效果显著。 具有开箱即用的特点,预训练模型加持,操作简单,支持高度定制化训练。 GitHub 链接:https://github.com/bytedance/LatentSync 论文链接:https://arxiv.org/pdf/2412.09262
2025-02-16
基于参考图片人物形象生成指定迪士尼风格的图片
以下是关于基于参考图片人物形象生成指定迪士尼风格图片的相关内容: 在 Midjourney 中,生成指定迪士尼风格的图片可以通过以下方式: 1. 角色参考(cref):cref 的功能是保持图像角色的一致性。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref):sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果想引用一张图,但只是把它作为新图的一部分,可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 生成一张 Disney 风格的头像的具体步骤如下: 1. 选一张比较满意的图片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取图片,然后在聊天框发送(记得点击回车或发送按钮)。 2. 图片会上传到服务器并生成一张唯一的链接,点击图片,然后点击在浏览器中打开,然后可以看到浏览器上方有一个链接,复制下来。 3. 使用这个链接加 prompt 提示词来发送给 Midjourney,Midjourney 会根据需求生成特定的图片,这就是 Midjourney 的以图绘图。 此外,在生成 3D 效果图时,如生成可爱的拟人小鹿角色,可以在即梦图片生成界面中导入参考图,参考选项为参考轮廓边缘,生图模型选择 图片 2.0,输入包含角色、细节描述、场景、风格材质等的提示词,生成图片。
2025-02-12
文生图人物一致性
以下是关于文生图人物一致性的相关内容: 在使用 ControlNet 进行文生图时,首先进入文生图界面填写提示词生成一张图。然后将图片拖入 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。在没有明确指向性提示词的情况下,人物形象能保持一致,但表情、动作、服装会有随机不同程度的变化。可以通过添加关键词来给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等,例如添加“红裙子”“黑色校服、哭泣”“抱手、生气”“在花丛中奔跑、开心”“红色棒球帽,时尚卫衣,在商场逛街”。通过一系列测试,这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。 另外,在 PIKA1.0 新模型中,人的一致性已经逆天,再加上其强大的语义理解和大幅度的动作,在文生图方面表现出色。
2025-02-11
多人物场景,人物一致性如何保证
在多人物场景中保证人物一致性可以参考以下方法: 1. 在使用 Midjourney 出图时,多角色情况下,放弃参考角色(cref 提示),只用参考风格(sref 提示)。这样的好处是不会出现奇怪的组合,坏处是出图较随机。 2. 多用局部重绘,虽然具有随机性,但多试几次能得到一致性较好的图。 3. 出图时先只出一个主要角色和场景。当出现多角色场景时,把其他角色抠图粘贴过来。比如老虎向兔子认错的场景,若兔子和老虎不一致,可先出稳定的老虎,再粘贴兔子以保证一致性。 4. 按照“三个确定”的 SOP 处理: 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 确定前后图的构图风格:出第二张图时,将第二张图提示词描述后加入第一张图的构图风格(iw 参数)。 确定图片角色一致性:在保证构图风格没问题的基础上,保证人物一致性。先保证构图再确认角色一致性,因为 MJ 在重绘时,将角色在镜头中的位置挪动处理较难,固定位置重绘局部内容相对容易,若先保证人物内容,会很依赖 MJ 抽卡,随机性大。
2025-02-10
请推荐一下你知道的人物头像转卡通图的平台,要求效果好,和原图相似度高,最好是免费的
以下为一些人物头像转卡通图效果好、与原图相似度高且可能免费的平台及相关操作技巧: 1. Stable Diffusion: 可以使用【X/Y/Z plot】脚本来做参数对比,将 X 轴设置为提示词相关性(取值范围 1 30,每次增加 5),Y 轴设置为重绘幅度(取值范围 0 1,每次增加 0.2)。 提示词相关性在 6 11 中间为最佳,重绘幅度 0.4 时和原图比较接近。 可使用绘图功能,如增加红色眼镜、去掉衣服图案等,局部重绘可只改变涂抹部分。 2. 复杂提示词: 如 Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 。 可根据需求调整提示词,如将 Disney 换成 Pixar,boy 换成 girl 等。 3. 通用人物模版: 用真人照片+照片描述+方法 1 的关键词来处理。 需要注意的是,不同平台的效果可能因图片和操作而有所差异,您可以自行尝试。
2025-02-06
我想把黑白老照片修复成彩色,然后给人物换衣服。请问哪个AI网站或者软件可以免费使用
以下为您介绍可免费使用的将黑白老照片修复成彩色并给人物换衣服的方法: 使用 Stable Diffusion 可以实现此需求。在新上线的 controlnet 模型中,新增的 Recolor 模型能将黑白图片重新上色。操作时选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰,可参考文章——。 之后将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章——。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免对原图产生干扰。 原文网址:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-02-04