Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

--scref 教程

Answer

以下是关于“--sref”的教程:

  • “--sref”参数允许我们使用通过 URL 提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。
    • 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571
    • 请参阅 1-2-3 步骤教程开始使用风格参考图像。
    • 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png
  • 莱森的教程:
    • Midjourney cref 海马体写真教程,10 分钟不到出写真。
    • 得益于--cref[image url]和--cw[0~100],midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。
    • 风格复制和服装的替换,应当用提示词(prompt)和--sref[image url]来解决。--sref 代表 style reference,权重参数为--sw[0~1000],默认值 100,越高越接近参考图像的风格。
    • 例如,要复制海马体图像风格,先用/describe 指令反推海马体的提示词,再配合--sref[海马体图像的 url]。
  • 详细步骤:
    • 将“--sref”和 URL 添加到提示的末尾。
    • 在这一步中,以风格参考图像的视觉风格创建新图像。使用“风格参考”图像(--sref)时,Midjourney 将努力只捕捉参考图像的美学特质,而不是其语义内容。新提示本身没有美学内容有助于“sref”的执行。
    • 示例:提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 然后得到:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png
Content generated by AI large model, please carefully verify (powered by aily)

References

Midjourney V6 更新风格参考命令2.0 "--sref "

--sref参数允许我们使用通过URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571请参阅以下的1-2-3步骤教程,以帮助您开始使用风格参考图像。图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png(也就是下方图片)

莱森:利用一致性MJ 出海马体写真的教程来啦

Midjourney cref海马体写真教程来啦!10分钟不到出写真~视频在下面(记得mark看文字笔记)超低学习成本,你只要会用任意手机修图软件...就能解决Midjourney Cref角色一致性直出之后的「形似而神不似」的问题。简而言之,文字笔记:得益于--cref[image url]和--cw[0~100],midjourney能够迅速达成角色一致性的目的而无需Lora。其中,cref代表character reference(角色参考);cw则代表character weight(参考权重),默认为100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到0。你不需要对角色原图使用/describe来贴近目标生成角色的形象,因为--cref会帮你完成这件事情。于是,风格复制和服装的替换,则应当用提示词(prompt)和--sref[image url]来解决。顾名思义,--sref代表style reference,权重参数为--sw[0~1000],默认值100,越高越接近参考图像的风格举个例子,现在我们要海马体这张图像,我们先用/describe指令反推海马体的提示词,再配合--sref[海马体图像的url],就可以轻松复制图像风格。在回车之前,检查你的提示词,不要出现和sref风格差异过大的prompt;也可以增加一些你之前学过的有用的prompt。

Midjourney V6 更新风格参考命令2.0 "--sref "

在这一步中,我们将以我们的风格参考图像的视觉风格创建一幅新图像。我从上面的狐狸网格中选择了U4。使用“风格参考”图像(--sref)的魔力在于,Midjourney将努力只捕捉参考图像的美学特质,而不是其语义内容。从这个意义上讲,我们可以将--sref视为一种文本扩展类型的快捷方式。想想创建狐狸图像的提示。由于--sref,对于我的新图像,我将不必重新输入“描绘了一幅质感丰富、厚涂、富有表现力的油画”、“画作呈现了青绿色和黑色的混合”或“气氛悬念且神秘”,因为从某种意义上说,Midjourney已经为我完成了这些。重要的是,新提示本身没有美学内容。这有助于sref的执行!我将使用狐狸图像作为我的--sref,以提供美学内容。提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0然后我们得到了:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png

Others are asking
scref 使用指南
以下是关于 sref 的使用指南: 风格一致: 指南:垫图链接(可选择)+关键词+“sref” +图片链接+风格化参数+“v 6.0” 指令:url +关键词+“sref” + url +“sw” +“v 6.0” sw 风格化参数:用于控制整体的风格强度,默认为 100,数值范围为 参考多张图像风格:url 间使用空格隔开,权重代表不同参考风格的权重,如 sref url A::2 url B::3 url C::5 适用模型:V6 和 Niji V6 常见问题: 您可以在使用 Vary Region 期间使用 sref 来增强美学匹配/混合。 以下是如何在使用 Vary Region 时使用sref 图像来帮助加强风格的方法: 确保 remix 已打开。放大 点击。 保留提示中确定画布总体构图的部分。尽量保留尽可能多的部分,但不要耗尽内存。如果您的细节没有显示出来,那可能是内存问题。编辑提示以删除一些不必要的细节,以腾出空间添加新的细节。 将您的细节添加到提示中。 记得用一些详细的描述(至少 5 7 个词)描述它。 现在,您可以通过将基本图像用作 sref 来加强您的添加部分的风格(视觉美学)。右键单击放大后的图像中心,从下拉菜单中选择复制链接。将该链接添加为您的sref。 详细步骤: sref 参数允许我们使用通过 URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅以下的 1 2 3 步骤教程,以帮助您开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644 49b4 4831 95b1 486d05452313.png
2024-08-18
我想学习COZE平台创建智能体的详细教程。
以下是在 COZE 平台创建智能体的详细教程: 1. 基础智能体创建: 进入 coze 官网(www.coze.cn),注册并登录。 点击页面左上角的⊕。 通过【标准创建】填入 bot 的基本信息。 2. Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定 Bot 的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置:插件可扩展 Bot 的专业能力,如计算器、日历等工具;工作流可设置固定的处理流程和业务逻辑;图像流可处理和生成图像相关功能;触发器可设置自动化响应条件。 知识库管理:文本可存储文字类知识材料;表格可用于结构化数据的存储和调用;照片可作为图像素材库。 记忆系统:变量可存储对话过程中的临时信息;数据库可管理持久化的结构化数据;长期记忆可保存重要的历史对话信息;文件盒子可管理各类文档资料。 交互优化(底部区域):可设置开场白、用户问题建议、快捷指令、背景图片等。 预览与调试(右侧区域):实时测试 Bot 的各项功能,调试响应效果,优化交互体验。 3. 图像流相关: 打开 Coze 官网(https://www.coze.cn/home)。 创建图像工作流,图像流分为智能生成、智能编辑、基础编辑三类。 空间风格化插件有相关参数,如 image_url 是毛坯房的图片地址;Strength 是提示词强度,影响效果图;Style 是生成效果的风格,如新中式、日式、美式、欧式、法式等;user_prompt 是用户输入的 Promot 提示词。 按照构架配置工作流,调试工作流效果,可使用毛坯房测试用例(https://tgi1.jia.com/129/589/29589741.jpg)。 开始节点对应配置三项内容,进行提示词优化。 人设和回复逻辑:技能 1 中 3 项中的编译数字来源,然后点击右上角发布。
2025-01-08
midjourney 教程
以下是关于 Midjourney 的一些教程: 1. 利用一致性 MJ 出海马体写真: 超低学习成本,会用任意手机修图软件即可。 得益于 cref,能迅速达成角色一致性目的,无需 Lora。cref 代表 character reference(角色参考),cw 代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。若只想关注人脸,可调低到 0。 风格复制和服装替换,用提示词(prompt)和 sref,默认值 100,越高越接近参考图像的风格。 用 /describe 指令反推海马体的提示词,配合 sref复制图像风格。回车前检查提示词,避免出现和 sref 风格差异过大的 prompt,也可增加有用的 prompt。 对最满意的图进行 Upscale,解决“形似而神不似”的问题,即 MJ 直出和原人物在五官等地方的细微差距。 2. 线稿上色 Midjourney + Stable Diffusion: 用 Midjourney 生成线稿,PS 修正错误,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合提高出图质量和效率。 例如生成可爱猫卡通 IP 角色的线稿,mj 关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white backgroundniji 5style expressive。 3. 小白 30min 加入离谱村: 选工具,如 SD 或 Midjourney。 抄 prompt,从教程和导航中找喜欢的风格,摘取提示词。 找 ChatGPT 改写提示词。 把提示词喂给 Midjourney 机器人,初学者可多按 VU 让其自由修改,先弄出满意的图,如 V1V4 基于某图修改出 4 张,U1U4 选定某图细节调整。
2025-01-08
现在最好的 Ai 跳舞工具是哪一个,或者教程?
目前,在 AI 跳舞领域,以下是一些相关的工具和教程资源: B 站:Ever AI 酱,这里会有教程及 AI 工具界面操作。 DisPose:这是由清华大学与北京大学等组织联合发布的一种可控的人体图像动画方法。输入动作视频参考和人物图像,可以形成新的角色舞蹈视频。其地址为:https://lihxxx.github.io/DisPose/ 。 小红书/抖音:EverAI 。 您可以根据自己的需求选择适合的工具和教程进行学习和使用。
2025-01-07
Stable Diffusion 学习教程
以下是关于 Stable Diffusion 学习的教程: 学习提示词: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 核心基础知识: 1. Stable Diffusion 系列资源。 2. 零基础深入浅出理解 Stable Diffusion 核心基础原理,包括通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍。 3. Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析。 4. 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、生成示例。 5. Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建。 6. 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括训练资源分享、模型训练初识、配置训练环境与训练文件。 其他资源: 1. 了解 Stable diffusion 是什么: 。 2. 入门教程: 。 3. 模型网站:C 站 。 4. 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 。
2025-01-06
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06
Midjourney 学习教程
以下是学习 Midjourney 的教程: 1. 注册相关账号:注册 Discord 账号并加入 Midjourney 服务器,Midjourney 也有在线版本可直接使用。 2. 掌握提示词结构:了解 Prompt 的基本组成部分,如“主体”“媒介”“环境”等,学习构建有效的 Prompt 来生成理想图像。 3. 熟悉常用参数和命令:学习 Midjourney 的各种参数设置,如放大、细节等,掌握常用命令,如/imagine、/test 等。 4. 针对不同场景练习创作:尝试针对插画、游戏、框架等不同场景进行创作练习,通过实践提高 Prompt 编写和图像生成技巧。 5. 学习他人作品并模仿:观察学习其他用户的优秀作品,了解其 Prompt 技巧,通过模仿提高创作水平。 此外,还可以通过以下方式学习 Midjourney: 把 Midjourney 的官网说明书喂给 GPT,让其根据说明了解机制和结构,给出适合的提示词。 像案例中的二师兄一样,加入相关社群,如 Prompt battle 社群,打磨文生图提示词学习。 总的来说,系统学习 Prompt 编写技巧、熟悉 Midjourney 的功能,并通过大量实践创作,同时善于学习他人经验,是学习 Midjourney 的有效方法。但需注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-06