Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

sd 换脸

Answer

以下是关于 SD 换脸插件 Roop 的详细步骤:

  1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。
  2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python -m pip install insightface==0.7.3 --user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。
  3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。
  4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。
  5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。
  6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。

此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】无需Lora,一键换脸插件Roop

勾选如下项目,要确保包含Python和C++包。更改到你想要安装的位置,然后点击右下角的安装就行。安装时间比较长,要耐心等待。安装好之后,打开SD文件目录下的这个文件夹。在地址栏输入“cmd”,然后回车。在打开的dos界面里面,将这行代码“python-m pip install insightface==0.7.3--user”粘贴进来,就会自动开始安装insightface。如果这个阶段出现错误,建议去下载使用最新的秋叶4.2整合包(6月23号更新),下载包我已经更新到了云盘里,后台回复【SD】就可以下载。安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。完成这些后,我们的Roop插件就可以正常使用了。这个插件主要适用于真实的人脸替换,所以对二次元之类的人物作用不大。我们选用一个真实系模型“realisticVisionV20”,关键词描述的是一个老人举着气球。得到了一张如下的照片。接下来启用ROOP插件,选择你想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但是图像会很模糊;数值越高人物越不像,但是图像会很清晰。这个就取决于你的需求了,我使用0.5测试一下。最下面还有一个放大算法,可以使用一个模型放大你的图像,基本就相当于高清修复。设置好后,点击生成。可以看到,人脸部分的像素是偏低的,有点模糊。但是没有关系,我们可以将这张图发送到“图生图”,开一个比较小的重绘幅度。

【SD】无需Lora,一键换脸插件Roop

然后使用controlnet中的tile模型进行重绘。换脸完成,像不像你们自行评价吧~如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。特别提醒,此插件谨慎使用,切勿触犯法律。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

【SD】多人物脸部替换,一键换脸插件Roop(2)

我先正常地生成一张图片,内容是两个古风的人物形象,一男一女坐在一起,在大漠黄沙之下,互相对视。正向提示词是:best quality,official art,8k wallpaper,highly detailed,illustration,close-up,(a man and a woman sitting together:1.6),upper body,antique style,drifting snow,yellow sand fills the sky,withered tree,desert,gu,<lora:武侠V2_2.0:1>。模型使用的是majicmixRealistic,外加一个武侠lora。其余参数如下。得到这张图,仿佛两个古时的人转世来到了现在,回到曾经相识的大漠,相对而坐,往事如梭。发送到图生图中,调整重绘幅度为0.4。在roop插件中,默认是从左往右开始编号,0,1,2,3……这样依次往下。所以左边男人的编号为0,右边女人的编号为1。我们在第一个roop中载入至尊宝的照片形象。在第二个roop中载入紫霞的照片形象。脸部替换完成。这个插件最强大的地方就在于,它仅凭一张照片就能复刻出这个角色的其他角度和表情,而且能让人一眼感觉确实很像。放大看看特写。如果真的千年之后,两人再相见,他们心里会想什么呢?最后使用一下ps扩图,看看辽阔的黄沙大漠,七月飞雪。如果想要这个插件的话,可以添加我的公众号【白马与少年】,回复【SD】即可。鲜花总会凋谢但会再开一生所爱隐约在白云外-END-

Others are asking
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
SD 反推模型
以下是关于 SD 反推模型的相关内容: Fooocus 模型: LoRA 模型默认放在:Fooocus_win64_1110\\Fooocus\\models\\loras 程序默认用到 3 个 SDXL 的模型,包括一个 base、一个 Refiner 和一个 LoRA。单独安装需下载三个模型: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 若部署了 SD 秋叶包,可共用模型(大模型和 LoRA),通过修改 Fooocus_win64_1110\\Fooocus\\modules\\path.py 文件中的路径来配置,修改为秋叶包模型对应的路径,如: 大模型路径:sdwebui\\models\\Stablediffusion\\SDXL LoRA 模型路径:sdwebui\\models\\lora 配置好后点击 run.bat 文件启动。 Comfyui SD 学社做黏土头像的相关插件: 提示词反推 WD14Tagger:https://github.com/pythongosss/ComfyUlWD14Tagger,首次使用会自动下载模型(需要网络环境) 处理人物一致性: IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus 也可以用 instantID,这里使用的是 IPadpter,后续很多地方也会用到,建议先使用起来。关于 IPAdapter 的使用,之前有文章介绍。 ControlNet: 预处理的插件:comfyui_controlnet_aux https://github.com/Fannovel16/comfyui_controlnet_aux ControlNet 模型: XLCN 模型下载:https://huggingface.co/lllyasviel/sd_control_collection/tree/main 1.5 理模型下载:https://huggingface.co/lllyasviel/ControlNetv11/tree/main ControlNet 的 tile 模型: 随着 ControlNet1.1 的更新,tile 模型横空出世,其强大的功能让之前的一些模型变得有点黯然失色。 可用于高清修复小图,比如将分辨率不高的食物图片拖进“WD 1.4 标签器”反推关键词,然后发送到图生图。使用大模型“dreamshaper”调整参数尺寸,放大为 2K,提示词引导系数官方推荐在 15 以上,重绘幅度在 0.5 以上。 可用于修复和增加细节,如处理一张细节不足且结构错误的小屋图。tile 的预处理器用来降低原图的分辨率,为新图添加像素和细节提供空间。若图片本身像素很低,可以不使用预处理器,直接使用 tile 模型。
2025-03-13
请你用简单易懂的语言告诉我comfyui和SD的区别
ComfyUI 和 SD(Stable Diffusion)主要有以下区别: 1. UI 界面:SD WebUI 的 UI 更接近传统产品,有很多输入框和按钮;ComfyUI 的 UI 界面复杂,除输入框外,还有很多块状元素和复杂的连线。 2. 学习成本:ComfyUI 的学习成本比 SD WebUI 高。 3. 工作流方式:ComfyUI 主要通过连线搭建自动化工作流,从左到右依次运行;SD WebUI 则通过输入框和按钮配置参数。 4. 灵活性和拓展性:ComfyUI 具有更高的自由和拓展性,可以根据自身需求搭建、调整甚至改造工作流,无需依赖开发者,还能开发并改造节点;SD WebUI 在这方面相对较弱。 5. 功能实现:从功能角度看,两者提供的功能本质相同,但 ComfyUI 通过改变节点方式能实现不同功能,如一个节点是直接加载图片,另一个是通过画板绘制图片,从而实现导入图片生图和绘图生图等不同功能。
2025-03-08
你有内置sd吗
Stable Diffusion(SD)相关知识如下: SD 内置了 LyCORIS,使用 LoRA 模型较多,其与 LyCORIS 相比可调节范围更大。LoRA 和 LyCORIS 的后缀均为.safetensors,体积较主模型小,一般在 4M 300M 之间。管理模型时可进入 WebUl 目录下的 models/LoRA 目录,在 WebUl 中使用时,可在 LoRA 菜单中点击使用,也可直接使用 Prompt 调用。 SD 的安装:系统需为 Win10 或 Win11。Win 系统查看配置,包括查看电脑系统(在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格)和查看电脑配置(需要满足电脑运行内存 8GB 以上、是英伟达(NVIDA)的显卡、显卡内存 4GB 以上。打开任务管理器:同时按下 ctrl + shift + esc,查看电脑运行内存和显卡内存)。配置达标可跳转至对应安装教程页,如 【SD】无需 Lora,一键换脸插件 Roop:勾选相关项目,确保包含 Python 和 C++包。更改安装位置,点击右下角安装。安装时间长需耐心等待。安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),后台回复【SD】下载。安装完成后,重新打开启动器,后台会继续下载模型,需全程科学上网。Roop 插件主要适用于真实人脸替换,对二次元人物作用不大。选用真实系模型,设置相关参数后生成,若人脸像素偏低模糊,可发送到“图生图”进行重绘。
2025-03-06
sd的关键词可以用中文吗
在 Stable Diffusion 中,通常只能识别英语关键词。但不用担心,您可以直接使用翻译工具将中文关键词翻译成英语后输入。比如,若您想生成一个漂亮的小姐姐站在大街上,可以写成“1 girl, beautiful, standing, street”这样的形式。输入关键词时,常用一个个单词并用英文状态下的逗号隔开。不过,对于中文字体的处理,也有一些方法,如将中文字做成白底黑字存成图片样式,再使用文生图的方式等。在输入关键词时,还可以先写一些提升照片质量的词语,使生成的照片更加精致。
2025-03-06
中文可以用sd吗
中文可以使用 Stable Diffusion(SD)。以下是使用 SD 制作中文文字的一些方法和步骤: 1. 将中文字做成白底黑字,存成图片样式。 2. 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 3. 输入关键词,如奶油的英文单词“Cream+Cake”(加强质感),反关键词:“Easynegative”(负能量),反复刷机,得到满意的效果即可。 4. 同理可输出 C4D 模型,可自由贴图材质效果,如“3d,blender,oc rendering”。 5. 如果希望有景深效果,也可以打开“depth”(增加阴影和质感)。 6. 打开高清修复,分辨率联系 1024 以上,步数:29 60。 SD 是 Stable Diffusion 的简称,是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。当前版本为 2.1 稳定版(2022.12.7),源代码库:github.com/StabilityAI/stablediffusion 。
2025-03-06
当前效果比较好的对口型,换脸,配音AI应用
以下是一些效果较好的对口型、换脸、配音的 AI 应用: Runway:网址为 https://runwayml.com ,有网页和 app 方便使用。工具教程: 即梦:网址为 https://dreamina.jianying.com/ ,是剪映旗下产品,生成 3 秒,动作幅度有很大升级,有最新 S 模型和 P 模型。工具教程: Minimax 海螺 AI:网址为 https://hailuoai.video/ ,非常听话,语义理解能力非常强。视频模型: Kling:网址为 kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:网址为 https://www.vidu.studio/ haiper:网址为 https://app.haiper.ai/ Pika:网址为 https://pika.art/ ,可控性强,可以对嘴型,可配音。工具教程: 智谱清影:网址为 https://chatglm.cn/video ,开源了,可以自己部署 cogvideo。工具教程: PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。工具教程: 通义万相:网址为 https://tongyi.aliyun.com/wanxiang/ ,大幅度运动很强。 luma:网址为 https://lumalabs.ai/ 即梦 AI 对口型的相关教程: 功能介绍:「对口型」是即梦 AI「视频生成」中的二次编辑功能,现支持中文、英文配音。目前主要针对写实/偏真实风格化人物的口型及配音生成,为用户的创作提供更多视听信息传达的能力。可上传包含完整人物面容的图片,进行视频生成,待视频生成完成后,点击预览视频下的「对口型」按钮,输入台词并选择音色,或上传配音文件进行对口型效果生成。目前支持语言:中文(全部音色),英文(推荐「超拟真」内的音色) 技巧:上传写实/近写实的人物单人图片,目前不支持多人物图片对口型;输入 prompt,选择参数,点击生成视频,尽量确保人物无形变等扭曲效果;确保人物生成的情绪与希望匹配的口型内容匹配;在生成的视频下方,点击【对口型】;输入或上传需要配音的内容,注意视频生成时长和配音试听时长尽量对齐,点击生成。先对口型,再超分补帧 关于 AI 短片的相关信息: AI 图片与视频生成的新能力与应用: 图片编辑功能:Midjourney 新增本地图片上传编辑入口,可进行局部重绘、扩图和风格转换等操作。 视频生成模型:解梦新出 p 模型和 s 模型,p 模型支持人物多动作和变焦,易改变画风;s 模型生成速度快、积分消耗少,能保持原始画风但语义理解有限。 特效玩法:皮卡和 Pixforce 有特效玩法,如人物爆炸、漂浮等,可用于优化视频效果。 视频转会:Runway 的 GN3 模型支持上传视频并转换风格,可用于实现多元宇宙等风格穿梭的片子,也能将简单场景转换为难以拍摄的场景。 视频生成中的角色生视频技术: 角色生视频突破关键帧限制:当前视频生成多依赖关键帧,而角色生视频不再是关键帧输入,而是直接传入角色本身,可更灵活生成视频,如让小男孩从左跑到右。 多角色参考生成创意视频:支持上传多张图,最多三张,可将人物、衣服、背景等元素融合生成视频,如小男孩穿裙子在宇宙飞。 角色对口型技术:如吉梦的对口型技术,支持文本朗诵和本地配音,能根据输入生成人物开口讲话的视频,但有上传人物长相等限制。 不同工具的角色生视频效果:对比了吉梦、Runway 等工具的角色生视频效果,如 Runway 的 x one 在身体、头部、眼神动态上表现更好。 角色生视频的应用场景:可用于规避机器人念台词的尴尬瞬间,让机器人有更丰富的表情和神态。 角色生视频的未来发展:未来视频生成将摆脱纯关键帧方式,采用多模态信息输入,如定义角色和场景的三视图等。
2025-03-25
ai换脸
以下是每个人都可以用 10 分钟轻松制作 AI 换脸、AI 数字人视频的方法: AI 换脸步骤: 1. 点击右下角的创建实例按钮,创建并启动实例(即启动一台服务器),在容器实例列表中可看到创建的实例。 2. 点击快捷工具中顶部的 JupyterLab,打开工具。通过终端启动 facefusioin,点击顶部的“+”号选项卡,新打开一个终端窗口,在终端区域启动一个终端选项卡。 3. 在打开的终端窗口中,输入以下命令: 查看文件列表,输入“ls”并按回车,显示当前位置所在目录下的文件列表。 进入 facefusion 目录,输入“cd facefusion”并按回车。 启动 facefusion,输入“python./run.py executionproviders cuda cpu”,注意后面的参数“executionproviders cuda cpu”非常重要,如果不加“cuda”,默认不使用 GPU 能力,推理将非常慢。当出现提示信息时,说明启动成功。 4. 打开 facefusion 软件,返回实例列表,点击自定义服务按钮,会打开新的浏览器窗口,通过 web 浏览器访问 facefusion 提供的 UI 界面。 5. 在 facefusion 软件界面上,上传准备好的图片、视频,在右侧可看到预览效果,点击下方的开始按钮,执行换脸处理。 执行完成后,在输出的位置会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击可导出变量后的视频到本地。 成本和时间: 1. 时间:大约 10 分钟左右。 2. 制作数字人视频:免费。 3. 数字人换脸:约 0.8 元。 4. 数字人换脸时长:经实际测试 1 分 28 秒的视频,总转换时间在 200 秒。 变脸前和变脸后的视频示例: 1. 变脸前的视频: 2. 变脸后的视频: 本次 GPU 服务器的使用花费: 总成本: 1. 时间:大约 10 分钟左右。 2. 制作数字人视频:免费。 3. 数字人换脸:约 0.8 元。 4. 数字人换脸时长:经实际测试 1 分 28 秒的视频,总转换时间在 200 秒,下方是运行 facefusion 的终端反馈的信息。如上图所示,GPU 服务器此次整体运行时长所需花费 0.97 元,facefusion 软件运行其实只占服务器运行时长的一部分,所以换脸的成本应该在 0.8 元左右。
2025-03-11
视频换脸
以下是关于视频换脸的相关信息: TecCreative 工具: 自动识别视频中的人脸,并将其替换为选择的脸部,实现在视频中快速、精确地替换人物的脸部。 操作指引:上传原始视频——上传换脸图片——点击生成。 Swapface 工具(有免费额度): 图片换脸、视频换脸,直播实时换脸,需要下载电脑客户端使用,没有在线版,可以通过邀请好友、点评软件获取积分。 视频换脸可以上传视频或者 gif 图,换脸可以识别图片、视频里的多张脸进行替换。 效果预览:左边原视频,右边换脸后效果。 Viggle 工具(有免费额度): 可完成视频换脸。 功能包括: /mix: 将角色图像混合到动态视频中。上传一张字符清晰的图片,上传一段清晰运动的视频。 /animate: 使用文本运动提示为静态角色设置动画。上传一张字符清晰的图片,描述想让角色做的动作(也可以从 https://viggle.ai/prompt 中复制动作提示词)。 /ideate: 纯粹从文本创建角色视频。描述想要创造的角色,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /character: 通过文本提示创建角色并将其动画化。描述想要创造的角色,从四个结果中选择一个图像,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize: 使用文本提示符重新设计角色的样式并将其动画化。上传一张字符清晰的图片,描述想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 。
2025-03-11
关于换脸的AI
以下是关于 AI 换脸的详细介绍: AI 换脸可以通过以下步骤实现: 1. 选择云服务解决方案,如 AutoDL(官网:https://www.autodl.com/home )。注册完成后,在算力市场中选择能接受价格且 GPU 配置较高的算力服务器。 2. 通过模型镜像启动 GPU 服务器:在算法社区查找 facefusion 镜像,选择合适的镜像启动。 3. 启动实例并打开相关工具:点击右下角的创建实例按钮,创建并启动实例。点击快捷工具中顶部的 JupyterLab 打开工具,新打开一个终端窗口,在终端窗口中输入命令执行相关操作。 4. 打开 facefusion 软件:返回实例列表,点击自定义服务按钮,通过新的浏览器窗口访问 facefusion 提供的 UI 界面。 5. 在 facefusion 软件界面上传准备好的图片、视频,在右侧可看到预览效果,点击下方的开始按钮执行换脸处理。 执行完成后,在输出位置会出现处理后的视频,输出窗口右上角有下载按钮可导出视频到本地。 本次 GPU 服务器的使用花费情况: 1. 时间:大约 10 分钟左右。 2. 制作数字人视频:免费。 3. 数字人换脸:约 0.8 元。 有多个 AI 产品可以实现换脸效果,这里介绍的开源、免费的解决方案是 facefusion,其开源地址:https://github.com/facefusion/facefusion 。但本地化安装需要一定编程知识,且对计算机配置有要求,执行速度可能较慢,因此不推荐本地化安装。
2025-03-04
我想通过ai换脸,把一张网图的照片变成我的脸,该怎么办
以下是将网图照片换成您的脸的一些方法和步骤: 1. 星流一站式 AI 设计工具: 选中图像进入扩展功能界面,自动提取面部信息。 上传想要替换到图像的图片。 参数方面:提示词框会自动根据图像进行填充,无需手动填写;重绘风格选择与放大图像相对应的风格,会提升换脸效果,其余参数默认即可。 2. 【SD】无需 Lora,一键换脸插件 Roop: 勾选相关项目,确保包含 Python 和 C++包。 更改到您想要安装的位置,点击右下角的安装。 安装时间较长,需耐心等待。 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”,然后回车。 在打开的 dos 界面里,粘贴“python m pip install insightface==0.7.3 user”代码,自动开始安装 insightface。 若此阶段出现错误,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),后台回复【SD】即可下载。 安装完成后,重新打开启动器,后台会继续下载一些模型,全程需保证科学上网。 启用 ROOP 插件,选择想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但图像会很模糊;数值越高人物越不像,但图像会很清晰,可根据需求设置,如使用 0.5 测试。最下面还有放大算法,可使用一个模型放大图像,相当于高清修复。设置好后点击生成。若人脸部分像素偏低、有点模糊,可将图发送到“图生图”,开一个较小的重绘幅度。 需要注意的是,AI 换脸存在一定的法律风险。除上述诈骗、寻衅滋事、编造、传播虚假信息罪外,AI 换脸技术既然要对“人脸”进行更换,其民事侵权风险自不言而明,相对应地构成侮辱、诽谤罪及制作、贩卖、传播淫秽色情物品罪的案例亦会出现。就民事侵权而言,《民法典》第一千零一十九条明确规定,“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。”因此,一旦换脸技术所生成之人脸系自然人的肖像,那么未经他人同意,使用他人肖像的行为当然侵犯了自然人的肖像权。在刑事犯罪方面,行为人使用他人肖像进行 AI 换脸旨在侮辱、诽谤、恶意丑化他人,并在网络上肆意传播,该行为就极有可能涉嫌刑法上的侮辱、诽谤罪。此外,现阶段还存在大量行为人利用 AI 换脸技术专门进行违法犯罪活动,其中较为典型的是诈骗罪和制作、复制、出版、贩卖、传播淫秽物品牟利罪或传播淫秽物品罪。
2025-03-03
Ai 换脸形象照怎么换
以下是关于 AI 换脸形象照的相关信息: 法律风险: AI 换脸技术存在民事侵权风险。《民法典》规定,未经肖像权人同意,使用他人肖像的行为侵犯肖像权。 在刑事犯罪方面,使用他人肖像进行 AI 换脸旨在侮辱、诽谤、恶意丑化他人,并在网络上肆意传播,可能涉嫌侮辱、诽谤罪。此外,还存在利用该技术进行诈骗罪和制作、复制、出版、贩卖、传播淫秽物品牟利罪或传播淫秽物品罪等违法犯罪活动的情况。 制作方法: 可以通过某些工具生成数字人,在显示区域调整背景图和数字人的位置,增加字幕,完成后导出备用。若要换脸,需使用其他工具。 例如星流一站式 AI 设计工具,选中图像进入扩展功能界面,自动提取面部信息,上传想要替换的图片,选择重绘风格等参数即可。
2025-02-27