Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

照片涂抹替换

Answer

以下是关于照片涂抹替换的相关内容:

如果您运营网店且没有资金请模特,可使用 Stable Diffusion 来制作商品展示图。首先,真人穿好要卖的衣服并拍照,获取具有真实质感的照片。若身材方面有问题,可借助美图秀秀或 PS 处理。然后选好真人照片风格的 realisitic 底模,如 majicmixRealistic_v7。接着根据不同平台需求换头,如面向海外市场换白女头。在图生图下的局部重绘选项卡中,涂抹自己要替换的部分。

字节发布的新模型 SeedEdit 也能实现照片的修改。即使是真人图像,它也能 hold 住。例如可以通过输入 Prompt 指令让戴珍珠耳环的少女手里拿着一杯奶茶,给《老友记》中的瑞秋戴上时髦的墨镜,给奥黛丽・赫本更换帽子颜色,给黑白老照片上色,移除画中无关元素,进行元素替换以及切换各种风格,如涂鸦、乐高、3D、皮克斯、迪士尼等。

星流一站式 AI 设计工具中的顶部图像编辑工具具有多种功能:

  • 换脸:自动替换原图的脸部信息。使用时选中图像进入扩展功能界面,自动提取面部信息,上传想要替换到图像的图片,选择与放大图像相对应的重绘风格可提升效果。
  • 智能擦除:智能擦除能帮您擦除图片上的任意元素,并根据图片内容填充空白区域。使用时选中图像进入智能擦除功能界面,用套索或框选工具进行选区,点击擦除。
  • 剪裁:裁剪可以将图片裁切成任意大小。使用时选中图像进入剪裁功能界面,拖动选区边界选择需要保留的部分,按下键盘 Enter 进行确认。
Content generated by AI large model, please carefully verify (powered by aily)

References

我用Stable Diffusion做电商!

如果你要开淘宝网店,那么在淘宝网页上展示的商品就要漂亮精致,紧紧抓住消费者的心♥!我们可以借助AI作图工具,简单地代替请模特特地搞拍摄的过程啦!这里介绍很简单的利用AI绘画局部逐渐美化女装商品展示图的方法。我是运营网店的女装店主,我没有钱请模特了。。。我可以用stable diffusion来初步制作自己的展示商品!比如我这里要卖这个绿色的淑女裙。(左图)我尝试了直接拿真人穿的衣服抠出来生成,效果很不好。(右图)借鉴了一些视频和方法,我总结了一些我觉得实用性较高,也比较简单的步骤。我觉得局部重绘是比较合适和真实的方法。真人穿衣服拍照。拿到穿衣服的比较真实质感的照片。【如果是身材方面有点难处那就借助美图秀秀or ps吧】ok,比如我(不具有做模特资质的小美女)穿好了我卖的漂亮衣服摆好pose摆几张啦!选好底模!一定要是realistic的,真人照片风格的底模。我这里选的是很经典的majicmixRealistic_v7。换头,根据不同平台换头!比如面向海外市场的,就得换白女头吧。面向中老妇女的,换妈妈头。ok,我这里换白女头,比如我要放在亚马逊上卖。操作就是图生图下的局部重绘选项卡下涂抹自己替换的部分。prompts&parametersbreathtaking cinematic photo,masterpiece,best quality,(photorealistic:1.33),blonde hair,silver necklace,carrying a white bag,standing,full body,detailed face,big eyes,detailed hands,

真·打字P图!字节发布新模型SeedEdit,一句话爆改世界名画,可免费体验

(Prompt:戴珍珠耳环的少女手里拿着一杯奶茶)即使是真人图像,SeedEdit也完全能hold住。让《老友记》中的瑞秋戴上时髦的墨镜:(Prompt:女生戴上时髦的墨镜)给奥黛丽・赫本更换帽子颜色:(Prompt:帽子颜色换成红色)或者一句话给黑白老照片上色:(Prompt:给画面上色,时尚,舒服)移除画中无关元素,若是用传统PS方法,需要一点点描边框、选涂抹区域,一旦手不稳,就得重新返工。而SeedEdit只需一句「去掉右边老虎」的指令,就能精准定位并删除,这相比于手动编辑,大大节省了时间。(Prompt:去掉右边老虎)当然,SeedEdit也可以进行元素替换。比如把下图中右边的金毛换成泰迪,图像其余部分画面结构、像素质量,均不受影响。(Prompt:把右侧的小狗换成棕色的泰迪)值得一提的是,SeedEdit还能随意切换各种风格,比如涂鸦、乐高、3D、皮克斯、迪士尼……(Prompt:把画面风格换成用线条和形状勾勒的涂鸦风;Prompt:把画面风格换成皮克斯风格;Prompt:把画面风格换成日本动漫风)经过多次尝试,我们也总结出一套超实用的Prompt指南。

星流一站式 AI 设计工具

1.什么是换脸?自动替换原图的脸部信息1.如何使用?||示意||-|-||选中图像进入扩展功能界面,自动提取面部信息|||上传想要替换到图像的图片|||参数:<br>提示词框:会自动根据图像进行填充,无需手动填写。<br>重绘风格:选择与放大图像相对应的风格,会提升换脸效果<br>其余参数默认即可。|||换脸展示||[heading4]智能擦除[content]1.什么是智能擦除?智能擦除帮你擦除图片上的任意元素,并根据图片内容填充空白区域。1.如何使用?||示意||-|-||选中图像进入智能擦除功能界面<br>使用套索或框选工具进行选区<br>点击擦除|||效果展示||[heading4]剪裁[content]1.什么是剪裁?裁剪可以将图片裁切成任意大小。1.如何使用?||示意||-|-||选中图像进入剪裁功能界面<br>拖动选区边界选择需要保留的部分<br>按下键盘Enter进行确认|||效果展示||

Others are asking
有没有替换物品的ai
以下是为您找到的与替换物品相关的 AI 内容: Inpaint Anything 提出了一种新的图像修复方法,支持“Replace Anything”功能,用户可以选择保留点击选定的对象并将剩余的背景替换为新生成的场景。 Stability AI 推出的基于 Discord 的媒体生成和编辑工具中,有通过搜索提示识别对象并替换的功能,例如把猫换成狗。
2025-03-19
视频中的人物和背景替换,用什么工具
以下是一些可用于视频中人物和背景替换的工具及相关流程: ComfyUI 工作流: 前景处理: 使用 SAM 之前的版本来分割视频背景。 根据实际情况调整提示词和阈值。 移除背景后,使用图像遮罩复合生成灰色背景的图像批次,以帮助柔化前景对象(如人物)的边缘,减少锯齿或硬边缘的视觉效果,为后续和背景融合时过渡更自然顺滑。 在网盘里可以找到对应的模型,下载后按文件夹目录地址放置。 背景:背景部分可以是图片或者视频,为了有前后的视觉效果,可以添加一个图像的模糊,让生成的视频有种景深的效果。 边缘的处理: 核心是优化和改善前景对象的边缘,使其能够与新背景无缝融合,同时保持前景细节的完整性和自然性。 通过遮罩模糊生长(growMaskWithBlur),调整扩展和模糊半径来控制边缘的遮罩。 【SD】工作流: GroundingDINO 模型分割:当需要更精确的蒙版,如人物的眼睛或身上的配饰等,可使用 segment anything 中的 GroundingDINO。启用 GroundingDINO 时,AI 会自动下载模型,也可去云盘下载放到指定文件目录下。在检测提示词中输入相关内容,AI 可自动检测并设置蒙版,还能通过预览箱体得到编号选择调整单一部分。 希望以上内容对您有所帮助。
2025-02-02
怎么替换视频或图片中的人脸
以下是替换视频或图片中人脸的几种方法: 方法一:使用 SD 中的 Roop 插件 1. 安装 Roop 插件,安装时间较长需耐心等待。安装好后打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”并回车。 2. 在打开的 dos 界面中粘贴“python m pip install insightface==0.7.3 user”代码自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后重新打开启动器,后台会继续下载模型,全程需科学上网。 4. 选用真实系模型“realisticVisionV20”,得到照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数。 6. 点击生成,若人脸像素偏低模糊,可将图发送到“图生图”,开较小重绘幅度,使用 controlnet 中的 tile 模型进行重绘。 方法:使用 TecCreative 工具 1. 对于图片换脸,仅需上传原始图片和换脸图片,然后点击开始生成。注意图片大小上限 5M,支持 JPG、PNG 格式。 2. 对于视频换脸,上传原始视频和换脸图片后点击生成。 方法:使用快捷工具中的 facefusion 1. 点击快捷工具中顶部的“JupyterLab”打开工具,通过终端启动 facefusion。 2. 点击顶部的“+”号选项卡,新打开一个终端窗口。 3. 在终端区域启动终端选项卡,输入 3 条命令: 输入“ls”并按回车查看文件列表。 输入“cd facefusion”并按回车进入程序目录。 输入“python./run.py executionproviders cuda cpu”启动程序。 4. 当出现提示信息说明启动成功。 5. 打开 facefusion 软件,返回实例列表,点击自定义服务按钮,通过新的浏览器窗口访问 facefusion 的 UI 界面。 6. 在软件界面上传准备好的图片、视频,在右侧查看预览效果,点击开始按钮执行换脸处理。处理完成后在输出位置下载处理后的视频。 特别提醒,此类插件需谨慎使用,切勿触犯法律。如果想要 Roop 插件,可以添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。
2025-02-01
怎么把视频或图片中的人脸进行替换,生产新的合成图片或视频
要把视频或图片中的人脸进行替换,生成新的合成图片或视频,可以参考以下方法: 1. 利用 TecCreative 创意工具箱: 图片换脸:仅需上传原始图片和换脸图片,即可一键实现素材换脸。操作指引为上传原始图片——上传换脸图片——点击开始生成。注意图片大小上限 5M,支持 JPG、PNG 格式。 视频换脸:自动识别视频中的人脸,并将其替换为选择的脸部。操作指引为上传原始视频——上传换脸图片——点击生成。 2. 实战方法: 点击快捷工具中顶部的 JupyterLab,打开这个工具。通过终端输入命令启动 facefusion: 点击顶部的 + 号选项卡,新打开一个终端窗口。 点击终端区域,启动一个终端的选项卡。 在打开的终端窗口中,输入 3 条命令做 3 件事情: 查看文件列表。输入 ls 并按回车,显示当前位置所在目录下的文件列表。 进入 facefusion 目录,输入 cd facefusion 并按回车,进入程序目录。 启动 facefusion。输入:python./run.py executionproviders cuda cpu 启动程序。注意后面的参数 executionproviders cuda cpu 非常重要,如果不加 cuda,则默认不使用 GPU 能力,推理将非常慢。 当出现提示信息时,说明启动成功。 打开 facefusion 软件,需要返回实例列表,点击自定义服务按钮,会打开一个新的浏览器窗口。 在 facefusion 软件界面上,上传准备好的图片、视频后,在右侧可以看到预览效果。点击下方的开始按钮,执行换脸处理。执行完成后,在输出的位置,会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击它可以导出变量后的视频到本地。
2025-02-01
视频面部替换 有什么工具推荐?
以下是为您推荐的视频面部替换工具: 1. 三思教程:https://www.xiaohongshu.com/explore/666e8bfc00000000060044aa 2. 白马少年文生图教程:https://www.xiaohongshu.com/explore/6669d3c9000000000e0300fb 3. 阿米的 VB 工作流拆解:https://www.xiaohongshu.com/explore/66699475000000000e0325cf 4. 红泥小火炉的 VB 工作流拆解:https://www.xiaohongshu.com/explore/66699e13000000000d00d236 5. 岳超楠:AI 教程丨教您如何用 comfyUI 修复脸部:https://www.xiaohongshu.com/explore/666be3ed0000000006004d88 6. guahunyo 老师的工作流: 7. Dreamina 图片生成功能:https://dreamina.jianying.com/aitool/image/generate ,上传深度图,选择适应画布比例并填写描述
2025-01-07
有没有什么可以替换视频里某个物体的ai工具
以下为一些可以替换视频里某个物体的 AI 工具: 1. Meta Movie Gen 文生视频模型:只需一句“把灯笼变成飞向空中的泡泡”,就能替换视频中的物体,同时透明的泡泡能正确反射背景环境。 2. 某些软件:如在实战中,可通过一系列操作生成数字人视频,若要换脸则需另用工具。 3. 部分产品:如制作低成本营销视频等可使用 Synthesia、HeyGen AI、DID 等产品。诗云马良平台早在 21 年就推出给视频中模特换脸、切换语言的能力,近期 HenGen AI 也公布了 AI 切换视频内语言的能力,并能使 Avatar 口型与视频相匹配。
2024-12-15
用照片生成漫画
以下是关于用照片生成漫画的相关内容: 一、使用 MJ 生成照片漫画 1. 需求分析 用自己的图片、照片生成以照片人物为主体的运动员头像漫画。 2. 操作步骤 输入:使用 ChatGPT 完成对应工作,输入奥林匹克项目生成人物描述,并结合设定好的提示词。 ChatGPT 生成描述:添加中国人、中国运动服和项目场景描述,生成 MJ 画图的提示词。 MJ 绘图测试:测试 MJ 绘图提示词的稳定性,确定是否需要垫图等。 局部重绘:使用局部重绘,结合 cref 链接照片,调整 cw 参数。 二、OpenAI GPT4o 图像生成模型 1. 核心功能 先进的多模态模型,能生成精确、真实感强的图像,具有实际用途。 2. 亮点功能 精确的文本渲染,能在图像中准确生成文字。 多样化场景生成,支持从真实感到漫画风格等多种图像生成,可根据上传图像进行灵感转化或视觉改造,具有上下文感知能力。 3. 技术改进 联合训练在线图像和文本的分布,学会图像与语言及图像之间的关系,后期训练优化在视觉流畅性和一致性方面表现出色。 4. 实际应用场景 信息传递、创意设计、教育与演示等。 5. 局限性 存在某些场景或细节的限制,如偶尔会过于紧密地裁剪较长图像,多语言呈现不佳。 6. 访问和可用性 已集成到 ChatGPT 中,Plus、Pro、Team 和 Free 用户推出,Enterprise 和 Edu 即将访问。开发人员很快可通过 API 使用,图像渲染时间较长。 三、四格漫画 可生成四种风格的四格漫画,需简体中文描述,足够幽默有趣的故事。
2025-03-27
让老照片动起来
以下是关于让老照片动起来的相关信息: 2024 上海市杨浦区举办了“时光印记”AI 公益挑战赛,采集了 20 位老一辈建设者的老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图,重现其青春风采与城市贡献。奖项丰富,包括丰厚现金奖励、DOU+流量推广、即梦 AI 积分、歌歌 AI 会员、剪映 App 会员等,还有比赛证书、线下巡展等。报名及创作时间为即日起至 2024 年 11 月 20 日。活动组织包括上海市杨浦区民政局、跳跳糖星火公益社团、WaytoAGI、即梦 A、歌歌 Al 等。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s,评选规则为预选加专家评委多维度评选。参赛方式为报名问卷和进群获取素材。 体验让老照片动起来的工具: Dreamina 即梦:网址为 https://dreamina.jianying.com/aitool/home?subTab ,优点是不需要🪜,每天有免费额度,注册可用抖音号或手机号,注册时间 5min。上传图片后能让老照片有一些动态效果,比如水面动起来,但也可能出现画面扭曲的情况。 Sora:网址为 https://openai.com/sora ,优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用,花费时间 30 60min,价格为 GPT 4 20$一个月。
2025-03-26
修复旧照片
以下是关于修复旧照片的相关内容: 使用 StableSR 修复旧照片: 1. 需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 2. StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 3. 一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 测试结果: 1. 使用“Ultimate SD upscale”脚本放大,重绘幅度开到 0.1 能看到人物细节变化,但整个人磨皮严重,失去真实感;重绘幅度开到 0.4 则变化较大。 2. 用“后期处理”的放大方法,缩放 3 倍,眼神更锐利,但头发仍模糊。 3. 用 StableSR 放大,需将大模型和 VAE 分别调整为下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。 ComfyUI 老照片修复 Flux Controlnet Upscale: 1. 以前的高清放大工作流被用于淘宝老照片修复,现在新模型结合工作流,十几个基础节点就能实现更好效果。 2. 参数调节:先确认放大倍数,再根据图片调整 controlNet 强度。 3. ControlnetUpscaler 放大模型:是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 4. Flux Ultimator 细节增强:能增加小细节,让图像逼真,增强色彩,在 0.1 强度设置下有显著效果,能顺利集成到工作流程中,与其他 LORA 结合使用时强度需小于 0.5。 5. T5 Clip:若图片质量细节不够,选择 fp16 版本。 6. 图像传递:controlNet 传递的应是上传的原始图片。 用 AI 给老照片上色: 在新上线的 controlnet 模型中,新增 Recolor 模型可给黑白图片重新上色。可选择 realisian 的写实大模型,提示词直接描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-26
修复老照片
以下是关于用 AI 修复老照片的相关内容: 使用 MutiDiffusion 插件,在显存不够时可通过分块渲染功能放大图片。对于较复杂的老照片,如人物多、场景复杂、像素低的情况,可先在 PS 里调整角度和裁切,直接上色效果不佳时,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定,还可从网上找参考照片让 AI 匹配色调,加入第二个 controlnet 控制颜色,如使用 t2ia_color 模型,关键词给蓝天、绿树、灰石砖等。 ComfyUI 老照片修复结合 Flux Controlnet Upscale 工作流,以前的高清放大工作流复杂,新模型出来后,十几个基础节点就能实现更好效果。参数调节一般先确认放大倍数,再根据图片调整 controlNet 强度。Flux.1dev ControlNet 是为低分辨率图像开发的模型,可与 diffusers 库一起使用,训练方式采用多种人工退化方案。Flux Ultimator 能增加小细节和鲜艳色彩,在 0.1 强度设置下有显著增强效果,能与其他 LORA 结合使用。T5 Clip 若图片质量细节不够,可选择 fp16 版本。controlNet 传递的应是原始图片。 在新上线的 controlnet 模型中,Recolor 模型可给黑白图片重新上色,可选择 realisian 写实大模型,提示词描述颜色和对应内容,ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果更好。
2025-03-24
照片转动漫的工具
以下为一些照片转动漫的工具及相关信息: 1. VIGGLE: 是一款创新的可控视频生成平台,基于 JST1 技术,允许用户自由创建和控制 3D 角色的动作,在游戏开发、动画制作及 VR/AR 等领域有巨大潜力。 Viggle AI 是利用骨骼动画将图片转化为一致性角色动画的工具,简化了动画制作流程。 体验地址:https://www.viggle.ai/ 官方 Discord:https://discord.gg/viggle 操作方式(以网页端举例): Upload a character image of any size.上传任意尺寸的角色图像。 For better results,use a fullbody photo with a clean background.为了获得更好的效果,请使用背景干净的全身照片。 Image size图像大小(最大 10MB) 您上传的照片必须符合社区规则。 2. 莱森: 利用一致性 MJ 出海马体写真的教程。 用醒图(英文版叫做 hypic)或者美图秀秀等 App 调整脸部,拖拖修图进度条就好了。 关注醒图【人像>面部重塑>面部>比例】,调整上庭、中庭、下庭。 在转绘部分,照片>Minecraft 风格幅度变化大时,若sw 风格权重拉满仍复制不了像素小人风格,可能是cw 太高,调低 cw 可能成功复制。 cref 和 sref 同时参考多张 url 时,上传同一个人不同角度的照片,容易使结果畸形。 若 MJ 直出的皮肤缺乏质感,可打开醒图【人像>手动美颜>皮肤肌理】。 若想快速调整光源,可试试 Luminar,可官方下载购买完整版,或在 macos 订阅 setapp 使用有基础功能的 Luminar 版本。 3. 个性: 操作: 复杂提示词,如:Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 不同照片生成,若对照片风格不满意可更换照片使用相同提示词重新生成。 其他调整,如觉得 Disney 风格太过卡通,可把提示词里的 Disney 换成 Pixar,若为女孩,可把 boy 换成 girl。每次生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。
2025-03-19
怎么免费生成一张我需要的场景照片
以下是几种免费生成您需要的场景照片的方法: 1. 利用 MJ 应用: 构思适合画绘本的故事,将其分为多个场景,用包含环境、人物、动作的话描述每个场景。例如:故事名《Lily 的奇妙之旅》,场景 1 为“Lily 来到一个阳光明媚的森林,跳过清澈的小溪,愉快玩耍。在路上结识了一只友善的棕熊,她们成为了旅伴。” 为每个场景生成图片时,设置 prompt 包括场景和风格,如“Walking in a mysterious cave with glittering gems,little girl Lily wearing a yellow floral skirt,her friend brown bear,dim,dreamlike,super high details,HDsmooth,by Jon Burgerman,s 400niji 5style expressivear 3:4”。 若只需要场景图像,可使用 mj 的 region vary 工具将人物完全框选,删除人物描述词后重新生成。 2. 悠船的使用: 写好提示词,右上可下载对应图片。 进行参数调整,注意任何点击都会重新生成图片,免费用户可能会提示超出套餐。 常用的图片调整内容包括变化(幅度有细微和强烈之分)、高清(有“直接”和“创意”两种方式)、风格变化(基于生成的图片再创作)、拓展(上下左右拓展图片)、缩放(指镜头)、局部重绘(选择区域要大)。 可以使用垫图、参考风格和提示词配合生成符合要求的图片。 3. Stable Diffusion 的使用: 把觉得好看的照片导进去,如果是从 SD 下载下来的 PNG 格式照片,右边会自动弹出照片的信息,包括正面关键词、负面关键词等,复制这些信息到“文生图”页面的关键词文本框中,点击生成按钮下的第一个小按钮,SD 会自动分配信息,就能得到差不多的照片(前提是有一样的大模型和 Lora)。 如果导入照片后右边没有生成信息,可用“标签器(Tagger)”来生成照片的关键词。
2025-03-07