直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

在sd中防止多人出现的反向提示词

回答

我总结了以下几点在 Stable Diffusion 中防止多人出现的反向提示词:

  1. 使用"solo"、"single figure"等关键词 在提示词中加入"solo"、"single figure"等词语,可以指示生成单个人物,而不是多人场景。这有助于避免生成包含多个人物的图像。

  2. 限制人物数量 在提示词中明确指定生成单个人物,例如"a person", "a woman"等,而不是使用诸如"people"、"group"等词语。这可以有效限制生成的人物数量。

  3. 避免使用集体词汇 在提示词中尽量避免使用"crowd"、"group"、"team"等集体性词汇,这些词容易引导生成包含多个人物的图像。

  4. 使用负面提示词 在提示词中加入"no multiple people"、"avoid group shots"等负面提示词,明确告知模型不要生成包含多人的图像。这可以有效抑制多人出现的情况。

  5. 结合其他限制条件 除了人物数量限制,还可以在提示词中加入其他限制条件,如特定的背景、场景、服饰等,进一步缩小生成范围,避免出现多人的情况。

总的来说,在 Stable Diffusion 中防止多人出现,需要在提示词中采取明确的限制措施,包括使用特定关键词、限制人物数量、避免集体词汇以及加入负面提示等方式。通过这些手段,可以更好地控制生成结果,避免出现不符合需求的多人图像。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

其他人在问
SD好的模型分享
以下是为您分享的关于 SD 模型的相关内容: 对于 SDXL 的 ControlNet 模型中的 Canny 硬边缘模型,有不同型号,如 4080ti 笔记本测试中,12G 显存下,sdxl base+refiner 模型,使用 diffusers 的 2.5Gfull 模型绘制 10241024 尺寸图片需 2 分 57 秒,320Mb 的 small 模型用时 34s,质量差距不大但时间优势明显。其他作者如 kohya 的用时 33 秒,更接近真实质感。sai 的 128lora 和 256lora 分别用时 39 秒和 1 分 08 秒,偏绘画感觉。t2i 的用时 34s,偏插画。关闭 refiner 能节省一半左右时间,平均 17 秒左右。 在 Depth 深度模型测试中,图形尺寸 6641024,diffusers 的 full 模型用时 2 分 48 秒,small 模型用时 23s,kohya 模型用时 42 秒,sai 模型用时 1 分 12 秒,sargezt 模型用时 1 分 52 秒。 用 Stable Diffusion 时,要先确定照片风格,如生成真人 AI 小姐姐可选用 chilloutmix 的大模型。部分常用大模型可在分享的链接中根据文件夹名称找到。文章第三部分会详细介绍模型下载位置和存放位置。 对于 ControlNet 中线条约束类的预处理器和模型,作者已整理好,如需获取可添加公众号【白马与少年】回复【SD】。同时作者还附上一张图帮助理解 ControlNet 模型的命名规则。
2024-11-17
sd模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数生成符合文本描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩的图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示将输入图片重绘以更符合文本描述。比如在之前生成的沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本信息编码,生成 Text Embeddings 特征矩阵,用于控制图像生成。 CLIP 模型包含 Text Encoder 和 Image Encoder 两个模型,在 Stable Diffusion 中主要使用 Text Encoder 模型。它将输入的文本 Prompt 编码转换成 Text Embeddings(文本的语义信息),通过 UNet 网络中的 CrossAttention 模块嵌入 Stable Diffusion 中作为 Condition,对生成图像的内容进行控制与引导。目前 SD 模型使用的是中的 Text Encoder 模型。 CLIP ViTL/14 中的 Text Encoder 是只包含 Transformer 结构的模型,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小是 123M,输出的 Text Embeddings 维度为 77x768。 以下是相关资源获取方式: SD 模型权重百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得包含多种模型权重的资源链接。 SD 保姆级训练资源百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2024-11-17
sd安装
以下是关于 SD 安装的详细步骤: 1. 系统要求:系统需为 Win10 或 Win11。 2. Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD的显卡,显卡内存 4GB 以上。 打开任务管理器:同时按下 ctrl+shift+esc。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标跳转至对应安装教程页:。 4. 配置不够可选择云端部署(Mac 也推荐云端部署):。 5. 备选:SD 好难,先试试简单的无界 AI:。 补充说明: 如果在以上使用过程中发生错误,那么你可能需要部署一下使用环境,我们再次开启最傻瓜安装教学模式。 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。以上步骤,我们在安装 roop 的时候也做过,如果安装过 roop 的可以跳过。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 关于【SD】无需 Lora,一键换脸插件 Roop 的安装: 安装时间比较长,要耐心等待。安装好之后,打开 SD 文件目录下的这个文件夹。在地址栏输入“cmd”,然后回车。在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包我已经更新到了云盘里,后台回复【SD】就可以下载。安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。完成这些后,Roop 插件就可以正常使用了。这个插件主要适用于真实的人脸替换,所以对二次元之类的人物作用不大。我们选用一个真实系模型“realisticVisionV20”,关键词描述的是一个老人举着气球。得到了一张如下的照片。接下来启用 ROOP 插件,选择你想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但是图像会很模糊;数值越高人物越不像,但是图像会很清晰。这个就取决于你的需求了,我使用 0.5 测试一下。最下面还有一个放大算法,可以使用一个模型放大你的图像,基本就相当于高清修复。设置好后,点击生成。可以看到,人脸部分的像素是偏低的,有点模糊。但是没有关系,我们可以将这张图发送到“图生图”,开一个比较小的重绘幅度。然后使用 controlnet 中的 tile 模型进行重绘。换脸完成。如果想要这个插件的话,可以添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。特别提醒,此插件谨慎使用,切勿触犯法律。
2024-11-16
coze web sdk 的具体测试的案例
以下是关于 Coze Web SDK 具体测试的案例: 1. 提示词母体测试: 测试平台包括海外版 Coze 和国内版 Coze。 目的是测试提示词母体模板是否能按规定指令进行生成。 测试模型有 Claude3.5 Sonnet等。 进行了现实主义人物角色、虚幻主义人物角色等方面的测试。 测试感受是基线达到,国内外模型都能按要求生成拟人化提示词,但效果不一,Claude 生成质量最好。 2. 分步构建和测试 Agent 功能: 进入 Coze 后,点击「个人空间工作流创建工作流」打开弹窗。 根据弹窗要求自定义工作流信息,确认后完成新建。 左侧「选择节点」模块中,根据子任务需要实际用到插件、大模型、代码等。 编辑面板中的开始节点和结束节点分别对应分解子任务流程图中的原文输入和结果输出环节。 按照流程图在编辑面板中拖入对应的 LLM 大模型、插件、代码节点即可完成工作流框架搭建。
2024-11-15
有哪些好用的SD扩图
以下是一些关于 SD 扩图的好用方法和相关信息: 1. 高清修复: 原理是命令 AI 按照原来的内容重新画一幅,新生成的绘图和原来的绘图在细节上会有所不同。 适当降低重绘幅度可以更接近之前的绘图,如 0.2 0.3 能保留较多原有细节,但可能出现如手部等部分的问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 PS 合成等办法解决。 由于渲染耗时较长,建议先采用低分辨率抽卡刷图,抽到喜欢的图后用随机种子固定再进行高清修复。 2. 图生图脚本功能: 文生图画好图后发送到图生图,点击下面的脚本,选择使用 SD 放大。 重绘幅度设置 0.3,放大倍率为 2,图块重叠的像素设置为 64。 这种方式需保持重绘幅度较低,否则可能出现新人物。 3. 超清无损放大器 StableSR: 可以算作“后期处理”的上位替代品,能在尽可能保留原图的情况下更精致地还原原图。 安装方式:在扩展面板中搜索 StableSR 直接安装,或将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下,安装完成后重启 webUI 即可在脚本中找到。 4. 二维码相关的 SD 扩图: 与第二步相同的关键词和模型,按照特定参数设置,如原本图片尺寸为 1152x1152 ,需要增高高度可设置为(1152x1526)。 对于无法识别处理的情况,可采取提高 ControlNet 的权重、降低重绘幅度、将原始黑白二维码叠加并调节透明度、使劲抽卡等方法。
2024-11-15
SD软件使用
以下是关于 SD 软件使用的相关内容: 1. 软件安装: 系统要求:Win10 或 Win11。 Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存和显卡内存(显存)。8GB 运行内存可勉强运行 SD,推荐 16GB 以上运行内存;4GB 显存可运行 SD,推荐 8GB 以上显存。 安装方式:配置达标可跳转至对应安装教程页。 2. 制作二维码: 使用进行安装。如果使用的是 Colab Notebook,只需在启动时选择 ControlNet。 生成二维码:首先需要一个二维码。为增加成功机会,请使用符合以下条件的二维码。使用高容错设置或草料二维码。具体步骤为:第一步选择文字类型,输入二维码的文字;第 2 步将容错设置为 30%;第 3 步按生成;第 4 步将二维码下载为 PNG 文件。 3. 软件原理理解: 模型下载与放置:不会科学上网时,可在启动器界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角的模型列表中选择(看不到就点旁边的蓝色按钮刷新)。 VAE:相当于给模型增加提高饱和度的滤镜和局部细节微调,有的大模型自带 VAE,可在启动器里面下载,下载的 VAE 放在根目录的【……\\models\\VAE】文件夹。 Embedding:功能相当于提示词打包,可在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。 LORA:可以将人物或者物品接近完美地复刻进图像中,具有极大商用价值,但使用时需注意版权和法律问题。
2024-11-13
有什么根据图片反向输出 Prompt的工具么
以下是一些根据图片反向输出 Prompt 的工具: prompter: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器, Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion, ChatGPT & Midjourney, OpenArt:AI 人工智能图像生成器, img2prompt:根据图片提取 Prompt, MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用, PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板, AiTuts Prompt:精心策划的高质量 Midjourney 提示数据库,提供了广泛的不同风格供选择,
2024-08-17
AI是什么?为什么那么多人都在说AI
AI 是一门令人兴奋的科学,它是某种模仿人类思维可以理解自然语言并输出自然语言的东西,是一种似人而非人的存在。 对于不具备理工科背景的文科生来说,把 AI 当成一个黑箱即可,不必深究其内部理解机制。AI 技术无论如何发展,其生态位仍是如此。 我们中的许多人在日常生活中已与 AI 进行互动,如交通、天气预测和电视节目推荐等,它正以惊人的速度普及和发展,使计算机能以过去难以想象的方式观察、理解世界并与之互动。 最初,计算机由查尔斯·巴贝奇发明,用于按明确程序运算。现代计算机虽更先进,但仍遵循相同理念。然而,像根据照片判断人的年龄这类任务,无法明确编程,因为我们不知大脑完成此任务的具体步骤,而这类任务正是 AI 所感兴趣的。
2024-09-26
提示词
提示词是由一些要素组成的,包括指令(想要模型执行的特定任务或指令)、上下文(包含外部信息或额外的上下文信息,引导语言模型更好地响应)、输入数据(用户输入的内容或问题)、输出指示(指定输出的类型或格式)。 提示工程是人工智能领域中,特别是在自然语言处理和大型语言模型的上下文中一个相对较新的概念,它涉及设计和优化输入提示,以引导 AI 模型生成特定类型的输出或执行特定的任务。其关键点包括精确性、创造性、迭代、上下文理解。提示词通常指的是直接输入到 AI 模型中的问题、请求或指示,是提示工程的一部分。提示工程是一个更广泛的概念,不仅包括创建提示词,还涉及理解模型的行为、优化提示以获得更好的性能、以及创造性地探索模型的潜在应用。 在 PixVerse 中,提示词在文生视频、图生视频和角色生视频中广泛使用。准确写出提示词可使 PixVerse 更容易生成想要的视频,减少试错成本。在 AI 视频生成中,Prompt 指用于指导或引导 AI 模型生成特定视频内容的描述性文本或指令,一般包含描述性文字、指令参数、情感氛围、参考风格等方面。推荐使用英文输入,PixVerse 对英文的理解能力最佳,效果最好,若对英文不熟悉,也可使用其他语言,PixVerse 的模型可以处理任何语言输入。
2024-11-16
关于kimi提问播客的提示词
以下是关于 Kimi 的相关提示词信息: 对于 Kimi Copilot 网页总结助手插件: 提示词包括:“你是一个擅长总结长文本的助手,能够总结用户给出的文本,并生成摘要。” 工作流程为:“让我们一步一步思考,阅读我提供的内容,并做出以下操作:一句话总结这篇文章,标题为‘概述’;总结文章内容并写成摘要,标题为‘摘要’;总是用中文回答;当你输出标题时,应该使用 markdown 格式。文章链接:https:// 。如果你无法访问这个链接,请根据下面的文本内容回答。” 文末的 ZIP 格式插件可能可以自定义提示词。 对于 Kimi chat: 输入 prompt 后很简洁。输入起诉状后,前面的回答温馨且专业,但存在一些问题,如主体缺少答辩人、引用废止的《合同法》等,总体能达到及格往上的成绩。输入应诉方案后,整体简洁明了但需继续细化,答辩策略对应答辩状,庭审准备和风险控制较抽象。 与智谱清言对比,智谱清言输入起诉状后的输出在主体等方面有其特点,输入“请输出应诉方案”后的输出在准备工作等方面表现良好。
2024-11-16
coze工作流中提示词优化节点有吗?
在 Coze 工作流中存在提示词优化节点。这个节点比较容易理解,如果觉得提示词需要优化,可加入该节点进行处理。其参数很简单,只有一个要优化的提示词。例如,用一开始就在用的文生图提示词“1 girl in real world”进行试用。优化后添加了很多具体信息,如在带着好奇心看书,环境中有阳光,色彩搭配的特点等。但修改后的提示词在控制图片生成真实照片的感觉方面,“in real world”控制真实图片生成的效果比“realistic”好。
2024-11-16
coze中提示词优化节点怎么加
在 Coze 中添加提示词优化节点的方法如下: 这个节点比较容易理解,如果觉得提示词需要优化,可以加入它进行优化。其参数很简单,只有一个要优化的提示词。 通常这类节点很好用。例如用一开始就在用的文生图提示词“1 girl in real world”来试试。优化前和优化后都生成一张图做效果对比,它会为我们添加很多具体信息,比如在带着好奇心看书,环境中有阳光,色彩搭配的特点。但修改后的提示词在控制图片为真实照片的感觉上,测试结果中文生图模型中“in real world”来控制更真实的图片生成效果比“realistic”效果好。(喜欢哪个见仁见智,不过也有抽卡因素,至少右边的打光感觉不错。)
2024-11-16
coze中提示词优化节点怎么加
在 Coze 中添加提示词优化节点的方法如下: 这个节点比较容易理解,如果觉得提示词需要优化,可以加入它进行优化。 参数很简单,只有一个要优化的提示词。 例如,用一开始就在用的文生图提示词“1 girl in real world”来试用。优化后会为提示词添加很多具体信息,比如在带着好奇心看书,环境中有阳光,色彩搭配的特点。但修改后的提示词在控制图片生成真实照片的感觉方面,“in real world”来控制比“realistic”效果好。
2024-11-16
coze中的提示词优化节点在哪里
在 Coze 中,提示词优化节点的相关信息如下: 这个节点比较容易理解,如果觉得提示词需要优化,可以加入它进行优化。参数很简单,只有一个要优化的提示词。 以文生图提示词“1 girl in real world”为例进行试用,优化后添加了很多具体信息,如在带着好奇心看书、环境中有阳光、色彩搭配的特点。但修改后的提示词在控制图片生成真实照片的感觉方面,“in real world”控制效果比“realistic”好。 此外,Coze 还涉及其他节点,如智能抠图、画质提升等。在复刻吴恩达开源的 AI 翻译项目时,工作流分为新建工作流、导入核心流程、设置节点等步骤,包括选择翻译的源语言和目标语言、选择大模型、配置反思优化的提示词等。
2024-11-16