直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

给图片写提示词

回答

以下是关于给图片写提示词的相关内容:

  • 在 SD 文生图中,提示词的一些规则如下:
    • 括号和“:1.2”等用于增加权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。
    • 反向提示词可以告诉 AI 不要的内容,例如:NSFw,(最差质量:2),(低质量:2)等。
    • 描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。
    • 可以利用一些辅助网站来写提示词,如 http://www.atoolbox.net/ ,通过选项卡方式快速填写关键词信息;https://ai.dawnmark.cn/ ,每种参数有缩略图参考;还可以在 C 站(https://civitai.com/)抄作业,复制图的参数粘贴到正向提示词栏。但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同。也可以选取部分好的描述词,如人物描写、背景描述、小元素或画面质感等。
  • 给自己做卡通头像时的提示词操作:
    • 在聊天窗口输入/imainge 找到/imagine prompt,放入链接,加提示词,以英文逗号分隔,再加上设置参数。
    • 设置参数包括:“--iw 1.5”设置参考图片的权重,数值越高与参考图片越接近,默认 0.5,最大 2;“--s 500”设置风格强度,数字越大越有创造力和想象力,可设 0 - 1000 间任意整数;“--v 5”指用 midjourney 的第 5 代版本,需订阅付费,不想付费可用“--v 4”;“--no glasses”指不戴眼镜。
    • 例如完整提示词:https://cdn.discordapp.com/xxx.pngsimple avatar,Disney boy,3d rendering,--iw 1.5 --s 500 --v 5 。若不满意可调整“--s”和“--iw”的值多次尝试。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】文生图怎么写提示词

英文为:(masterpiece:1.2),best quality,masterpiece,highres,original,extremelydetailed wallpaper,perfect,lighting,(extremely detailed CG:1.2),drawing,paintbrush在这组提示词中,括号和:1.2,都是用来增加权重的,权重越高在画面中体现越充分,同样提示词的先后顺序也会影响权重。接下来我们再增加一组反向提示词,可以告诉AI我们不要什么,在这里也是一组标准化提示词:NSFw,(最差质量:2),(低质量:2),(正常质量:2),(低质量:2),((单色)),((灰度)),皮肤斑点,痤疮,皮肤瑕疵,老年斑,(丑陋:1.331),(重复:1.331),(病态:1.21),(残缺:1.21),(变形:1.331),变异的手,(画得不好的手:1.5),模糊,(解剖不良:1.21),(比例不良:1.331),多余的四肢,(毁容:1.331),(缺胳膊:1.331),(多余的腿:1.331),(融合的手指:1.61051),(过多的手指:1.61051),(不清晰的眼睛:1.331),低质量,坏的手,缺手指,多余的手指,受伤的手,缺失的手指,(((多余的胳膊和腿))英文为:NSFw,(worst quality:2),(low quality:2),(normal quality:2),lowres,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot,(ugly:1.331),(duplicate:1.331),(morbid:1.21),(mutilated:1.21),(tranny:1.331),mutated hands,(poorly drawn hands:1.5),blurry,(bad anatomy:1.21),(badproportions:1.331),extra limbs,(disfigured:1.331),(missingarms:1.331),(extra legs:1.331),(fused fingers:1.61051),(toomany finger

【SD】文生图怎么写提示词

下次作图的时候,只需要先选择你的模板,然后点击倒数第二个按钮,就能将这些标准提示词快速输入了。我们来看一下加入标准提示词后的效果,是不是好了很多。我们通常的描述逻辑是这样的:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,我们就能更精确的控制Stable Diffusion的绘图了。对于新手而言,我们还有一些功能型辅助网站来帮我们书写提示词。比如:http://www.atoolbox.net/。它可以通过选项卡的方式快速地填写关键词信息。还有:https://ai.dawnmark.cn/。它的每种参数都有缩略图可以参考,可以方便我们更加直观的选择提示词。还有一个方法就是去C站(https://civitai.com/)里面抄作业,每一张图都有详细的参数,我们可以点击下面的复制数据按钮。然后直接粘贴到正向提示词栏里,然后点击生成按钮下的第一个按键,Stable Diffusion就可以将所有的参数自动匹配了。不过,还要注意图像作者使用的大模型和LORA,不然即使参数一样,生成的图也会截然不同。我们也可以只取其中比较好的一些描述词使用,比如人物描写、背景描述、一些小元素或者是画面质感之类的。好了,我们讲到这里,大家应该已经基本了解了文生图的使用方法和逻辑了,采用正确的语法规则和思路能让我们得到更好效果的AI绘图,快练习起来吧。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号

个性:给自己做一个卡通头像

1.简单提示词在聊天窗口输入/imainge找到/imagine prompt,然后把刚才的链接放进去,然后空格。加一些提示词,这些提示词以英文逗号分隔,最后再加上设置参数设置参数--iw 1.5是设置参考图片的权重,数值越高与参考的图片越接近,默认是0.5,最大是2,我们可以选择中间的某个值并调整,--s 500设置风格强度,个性化,艺术性,数字越大,更有创造力和想象力。,可设置为0-1000间任意整数。如果你设置1000,那生成的图片不说与你的图片相差甚大,可以说是毫不相关。我们设置500--v 5是指用midjourney的第5代版本,这一代的最真实,目前v5需要订阅付费,不想付费可以使用--v 4--no glasses是指不戴眼镜,如果你不喜欢戴眼镜的图片,可以戴上这个设置,让它不戴眼镜。效果如下:完整的提示词如下(替换你的png图片地址):[https://cdn.discordapp.com/xxx.png](https://cdn.discordapp.com/xxx.png)simple avatar,Disney boy,3d rendering,--iw 1.5 --s 500 --v 5如果你对这些不满意,可以选择调整--s和--iw的值来进行多次尝试。

其他人在问
提示词学习
以下是关于提示词学习的相关内容: 提示词的知识体系: 可分为五个维度,从高到低依次是思维框架、方法论、语句、工具和场景。但对于初学者,舒适的学习顺序应是反过来的。 学习 Stable Diffusion 提示词的步骤: 1. 学习基本概念:了解其工作原理、模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分。 2. 研究官方文档和教程:通读官方文档,研究开发团队和专家的教程与技巧分享。 3. 学习常见术语和范例:熟悉相关领域术语和概念,研究优秀的图像标题和描述作为范例。 4. 掌握关键技巧:学会组合词条精确描述效果,掌握控制生成权重的符号技巧,处理抽象概念等无形事物的描述。 5. 实践和反馈:尝试生成不同风格和主题的图像,对比结果并总结经验,在社区分享请教获取反馈。 6. 创建提示词库:按主题、风格等维度建立,记录成功案例方便复用。 7. 持续跟进前沿:关注最新更新和社区分享,掌握新技术、新范式、新趋势。 学习提示词运用的建议: 1. 理解提示词的作用:向模型提供上下文和指示,影响模型输出质量。 2. 学习构建技巧:明确任务目标,用简洁准确语言描述,提供背景信息和示例,使用清晰指令,明确特殊要求。 3. 参考优秀案例:在领域社区、Github 等资源中研究学习。 4. 实践、迭代、优化:与语言模型互动,根据输出提高提示词质量,尝试变体并分析差异。 5. 活用提示工程工具:如 Anthropic 的 Constitutional AI 等。 6. 跟上前沿研究:持续关注最新研究成果和方法论。
2024-11-13
我现在正在使用mid journey生成图片,做漫画,我想知道怎么样写提示词,才能更好的让mid journey生成我需要的图片
以下是关于在 Midjourney 中写提示词以生成所需图片的一些指导: 1. 常规操作: 登录 Discord 网站,打开 MJ 服务器出图。 通过 /imagine 命令,在对话框输入“/imagine”激活指令,然后把提示词粘贴到“prompt”后面,点击发送即可。 想要多少张图片,就要输入多少次提示词,且输入下一次提示词之前,要等待上一张图片生成完毕。 2. 使用插件提效: Autojourney 是电脑浏览器的一个插件,可在浏览器拓展程序中下载安装。 它功能强大,支持批量发送提示词、自动下载图片、自动放大图片、生成提示词等功能,能够提高使用 Midjourney 的效率。 点击浏览器右上角的插件,选择 Autojourney 插件将其激活,将提示词复制到插件中点击发送,提示词会排队进入 MJ 发送程序,自动批量出图。 Autojourney 插件支持一次输入 10 组提示词。 3. Midjourney V6 更新风格参考命令 2.0“sref”: 将“sref”和 URL添加到提示的末尾,以参考风格参考图像的视觉风格创建新图像。 新提示本身没有美学内容,有助于“sref”的执行。 4. Midjourney 最新编辑器更新: 常见问题:提出极其不合适的请求或要求修改非常小的区域,可能无法得到预期结果;在场景中放很小的头部并要求外绘,生成的身体可能会太大。 重纹理化:是一种通过使用另一张图像来引导图像结构或构图的方法,从构图引导图像开始,然后使用提示词和参数添加所需细节。 右侧显示的缩略图:显示器右侧的缩略图显示最近几次编辑会话的记录,左边稍大的缩略图是上传或链接的母图像,其他四张是子图像,展示根据提示生成的不同表达方式。 “View All /查看全部”按钮:每次在不改变选择区域的情况下对母图像进行编辑时,会生成新的缩略图行,更改提示词,新提示词对应的图像会显示在子图像中。
2024-11-13
如何学习提示词
学习提示词可以参考以下步骤和方法: 1. 基础概念学习 了解相关模型(如 Stable Diffusion)的工作原理和架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方资料 通读官方文档,了解提示词相关指南。 研究开发团队和专家的教程、技巧分享。 3. 学习常见术语和范例 熟悉相关领域(如 UI、艺术、摄影)的专业术语和概念。 研究优秀的图像标题和描述作为范例。 4. 掌握关键技巧 学会组合多个词条精确描述想要的效果。 掌握使用特定符号(如“()”、“”)控制生成权重。 学会处理抽象概念、情感等无形事物的描述。 5. 实践与反馈 用不同提示词生成各种风格和主题的图像。 对比结果,分析原因,总结经验。 在社区分享,请教高手获取反馈建议。 6. 创建提示词库 按主题、风格等维度建立自己的词库。 记录成功案例和总结,方便复用。 7. 持续跟进前沿 关注模型的最新更新和社区动态。 掌握提示词的新技术、新范式、新趋势。 此外,还需注意: 1. 理解提示词的作用,它为模型提供上下文和指示,影响输出质量。 2. 学习构建技巧,明确任务目标,用简洁准确语言描述,提供背景信息和示例,使用清晰指令,明确特殊要求。 3. 参考优秀案例,可在领域社区、Github 等资源中寻找。 4. 多实践、迭代、优化,尝试变体并分析输出差异。 5. 活用提示工程工具,如 Anthropic 的 Constitutional AI。 6. 跟上前沿研究,提示工程是前沿领域,持续关注最新成果和方法论。 精心设计的提示词能最大程度发挥语言模型的潜力,多实践、多学习、多总结才能掌握窍门。
2024-11-13
如何学习提示词
学习提示词可以按照以下步骤和方法进行: 1. 基本概念的学习: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分,如主题词、修饰词、反面词等。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,提示词在现代大型语言模型中极其重要,掌握其运用技巧能最大限度发挥模型潜能。具体包括: 1. 理解提示词的作用:提示词向模型提供上下文和指示,其质量直接影响模型输出质量。 2. 学习提示词的构建技巧:明确任务目标,用简洁准确的语言描述;给予足够背景信息和示例,帮助模型理解语境;使用清晰指令,如“解释”“总结”“创作”等;对特殊要求应给予明确指示,如输出格式、字数限制等。 3. 参考优秀案例:研究和学习已有的优秀提示词案例,了解行之有效的模式和技巧。 4. 实践、迭代、优化:多与语言模型互动,根据输出提高提示词质量。尝试各种变体,比较分析输出差异,持续优化提示词构建。 5. 活用提示工程工具:目前已有一些提示工程工具可供使用。 6. 跟上前沿研究:提示工程是当前前沿研究领域之一,持续关注最新研究成果和方法论。 提示词是给大语言模型的输入文本,用于指定模型执行任务和生成输出,发挥“提示”模型的作用。设计高质量提示词需根据目标任务和模型能力精心设计。学习提示词需要先了解大模型特性,具备清晰表述需求和任务的能力。
2024-11-13
suno提示词怎么写
以下是关于 Suno 提示词的写法: 在创作“离谱村”时,先收到台词素材和配音,构思出“童趣”“欢乐”等词,让 AJ 提出活泼、离谱搞笑的方向。然后把台词和想到的形容词投喂给 GPT4 生成音乐脚本,再将脚本输入给 SunoBeats 生成提示词。但最初生成的提示词太长,之后参考论坛网友分享的格式,即通过调式变化加上情节描述,使用和弦进展推动故事情节发展,让 SunoBeats 模仿这种格式生成提示词,测试发现这种格式的提示词质量更好、利用率更高。 推荐的写法可参考详细教程,如。 Suno 创作音乐的小技巧:如果想参考现有歌曲的节奏,可以在(引子)来更好地告诉 AI 这段歌词应该怎么唱。
2024-11-13
请你帮我写一段提示词,内容是:给AI 工具赋予一个身份,精通5why分析方法。
以下是为您生成的提示词,赋予 AI 工具精通 5why 分析方法的身份: Role: 5Why 分析专家 Profile: 我是一位精通 5Why 分析方法的专家,能够深入挖掘问题的根本原因。 Goals: 运用 5Why 分析方法,为您准确剖析问题,找出深层次的根源。 Constrains: 严格遵循 5Why 分析的逻辑和步骤,不随意跳跃或省略。 对于复杂问题,保持耐心和专注,确保分析的全面性和准确性。 Skills: 熟练掌握 5Why 分析的技巧和方法。 具备敏锐的洞察力,能够从表象中发现关键线索。 善于引导您一同参与分析过程,帮助您理解问题的本质。 Workflows: 首先,清晰了解问题的表象和您提供的相关信息。 然后,按照 5Why 的原则,逐步深入提问,直至找到根本原因。 最后,以清晰、简洁的方式向您呈现分析结果和解决方案。
2024-11-13
有什么可以ai去图片水印
以下是一些可以用于 AI 去图片水印的工具: 1. AVAide Watermark Remover:这是一个在线工具,使用 AI 技术去除图片水印。支持多种图片格式,如 JPG、JPEG、PNG、GIF 等。操作简单,上传图片、选择水印区域,保存并下载处理后的图片。还提供去除文本、对象、人物、日期和贴纸等功能。 2. Vmake:提供 AI 去除图片水印功能,可上传最多 10 张图片,AI 自动检测并移除水印,处理完成后可保存生成的文件,适合需快速去水印并在社交媒体分享图片的用户。 3. AI 改图神器:提供 AI 智能图片修复去水印功能,可一键去除图片中多余物体、人物或水印,不留痕迹。支持直接粘贴图像或上传手机图像,操作简便。 此外,还有以下辅助工具: 对于去除图片中特定物体(如右手的手串),除了 PS,还可以使用 PS 的 AI 版、SD 局部重绘,以及 Firefly、canva、Google photo 等的局部重绘功能,微软 Designer 也是免费的。 ProPainter 可一键移除视频内物体或水印,基于 E2FGVI 实现。 收费的去水印工具如 https://anieraser.media.io/app ,免费但效果一般的去水印工具如 https://onlinevideocutter.com/removelogo 。 这些工具各有特点,您可以根据具体需求选择最适合您的去水印工具。但还是建议购买正版去水印工具。内容由 AI 大模型生成,请仔细甄别。
2024-11-14
静态动物图片,生成说话视频
以下是一些能够将静态动物图片生成说话视频的技术和相关信息: VividTalk:单张照片和一段音频可生成看似真实的说话视频,支持多种语言和风格,如真实和卡通风格,由南京大学、阿里巴巴、字节跳动和南开大学合作开发。链接:https://x.com/xiaohuggg/status/1732026172509421697?s=20 腾讯 AniPortrait:根据音频和静态人脸图片生成逼真的动态视频,支持多种语言、面部重绘、头部姿势控制,比阿里 EMO 项目先开源。链接:https://github.com/ZejunYang/AniPortrait 、https://arxiv.org/abs/2403.17694 、https://x.com/imxiaohu/status/1772965256220045659?s=20
2024-11-13
用AI批量生成图片
以下是关于用 AI 批量生成图片的相关知识: Liblibai 简易上手教程: 1. 迭代步数:AI 调整图片内容的次数。步数越多,调整越精密,理论上出图效果越好,但生图耗时越长,且并非越多越好,效果提升非线性,多了以后效果增长曲线会放平并开始震荡。 2. 尺寸:图片生成的尺寸大小。太小 AI 生成内容有限,太大 AI 容易放飞自我。如需高清图,可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成几批图。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:指图像与 prompt 的匹配程度。数字增大图像更接近提示,但过高会让图像质量下降。 6. 随机数种子:生成的每张图都有随机数种子,固定种子后可进行“控制变量”操作,如修改提示词、修改 clip 跳过层等。首次生成图时无种子,无需处理。 7. ADetailer:面部修复插件,可治愈脸部崩坏,为高阶技能。 8. ControlNet:控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,也是高阶技能。 9. 重绘幅度:图生图时用到,幅度越大,输出图与输入图差别越大。 利用 AI 批量生成、模仿和复刻《小林漫画》: 1. 需求分析:主要需求是国内可直接使用且能批量生产,选用扣子搭建工作流,可能需牺牲一定质量的文案和图片效果。 2. 批量生成句子:不同于全程手动搭建,可一次性生成句子并进行生成图片处理,建议一次不要生成太多,如设置一次生成五句。 3. 句子提取:需把生成的句子逐个提取,针对每个句子绘图。 4. 图片生成:根据生成的句子,结合特有画风等描述绘图。 5. 图片和句子结合:扣子工作流支持 Python 代码,但环境缺少相关包,可替换为搞定设计或用 PS 脚本处理图片。 此外,还有相关的试用链接分享和效果展示,如扣子使用链接:https://www.coze.cn/s/iMCq73wp/ ,并有批量生产图片的视频演示: 。
2024-11-13
图片生成应用界面的工具有哪些
以下是一些图片生成应用界面的工具: 1. 图片生成 3D 建模工具: Tripo AI:VAST 发布的在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型,基于数十亿参数级别的 3D 大模型,实现快速的 2D 到 3D 转换,并提供 AI 驱动的精准度和细节。 Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成,用户可通过上传图片并描述材质和风格生成高质量 3D 模型。 CSM AI:支持从视频和图像创建 3D 模型,其 Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象再转换为 3D 模型。 Sudo AI:支持通过文本和图像生成 3D 模型,特别适用于游戏领域的模型生成,用户可上传图片或输入文本提示词来生成 3D 模型。 VoxCraft:由生数科技推出的免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型,并提供图像到 3D、文本到 3D 和文本到纹理等多种功能。 2. 生成透明背景图像的辅助工具: 安装好插件后,在生成图片时勾选“layerdiffusion enabled”。 在“layerdiffusion method”中选择生成透明图像的模式,如“Only Generate Transparent Image”。 提示中输入透明物体的描述,例如“玻璃杯”,点击生成后可得透明背景的玻璃杯图像。 也可上传背景图像,在“layerdiffusion method”中选择“From Background to Blending”,然后生成透明图像。 反之,也可以先生成透明的前景,然后选择“From Foreground to Blending”模式,生成背景。 特定模型: layer_xl_transparent_attn:用于将 Stable Diffusion XL 模型转化为透明图像生成器的模型。 layer_xl_transparent_conv:与 layer_xl_transparent_attn 类似,通过修改 conv 层的 offset 实现将 XL 模型转化为透明图像生成器。 layer_xl_fg2ble:用于将 XL 模型转化为前景图像到混合图像的生成模型。 layer_xl_fgble2bg:用于基于前景和混合图像生成背景的模型。 layer_xl_bg2ble:将 XL 模型转化为根据背景图像生成混合图像的模型。 layer_xl_bgble2fg:将 XL 模型转化为根据背景和混合图像生成前景的模型。 vae_transparent_encoder:图像编码器,用于从像素空间中提取潜在偏移,帮助透明图像的生成。 vae_transparent_decoder:图像解码器,输出真实的 PNG 图像。 3. 文生图工具: DALL·E:OpenAI 推出的一款文生图工具,可根据输入的文本描述生成逼真的图片。 StableDiffusion:开源的文生图工具,能生成高质量的图片,支持多种模型和算法。 MidJourney:因其高质量的图像生成效果和用户友好的界面设计而受到广泛欢迎,在创意设计人群中尤其流行。 您可以在 WaytoAGI 网站(https://www.waytoagi.com/category/104)查看更多文生图工具。
2024-11-13
图片生成 ui 的工具有哪些
以下是一些图片生成和图生图相关的工具: 图片生成 3D 建模工具: Tripo AI:在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成。 CSM AI:支持从视频和图像创建 3D 模型,其 Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象。 Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域。 VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型。 图生图产品: Artguru AI Art Generator:在线平台,生成逼真图像,为设计师提供灵感。 Retrato:将图片转换为非凡肖像,有 500 多种风格选择。 Stable Diffusion Reimagine:通过稳定扩散算法生成精细、具细节的全新视觉作品。 Barbie Selfie Generator:将上传的照片转换为芭比风格。 这些工具通常具有用户友好的界面,允许用户通过简单操作生成相关内容,但可能存在性能不稳定、生成内容不当等局限。
2024-11-13