直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

--scref 教程

回答

以下是关于“--sref”的教程:

  • “--sref”参数允许我们使用通过 URL 提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。
    • 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571
    • 请参阅 1-2-3 步骤教程开始使用风格参考图像。
    • 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png
  • 莱森的教程:
    • Midjourney cref 海马体写真教程,10 分钟不到出写真。
    • 得益于--cref[image url]和--cw[0~100],midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。
    • 风格复制和服装的替换,应当用提示词(prompt)和--sref[image url]来解决。--sref 代表 style reference,权重参数为--sw[0~1000],默认值 100,越高越接近参考图像的风格。
    • 例如,要复制海马体图像风格,先用/describe 指令反推海马体的提示词,再配合--sref[海马体图像的 url]。
  • 详细步骤:
    • 将“--sref”和 URL 添加到提示的末尾。
    • 在这一步中,以风格参考图像的视觉风格创建新图像。使用“风格参考”图像(--sref)时,Midjourney 将努力只捕捉参考图像的美学特质,而不是其语义内容。新提示本身没有美学内容有助于“sref”的执行。
    • 示例:提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 然后得到:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Midjourney V6 更新风格参考命令2.0 "--sref "

--sref参数允许我们使用通过URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571请参阅以下的1-2-3步骤教程,以帮助您开始使用风格参考图像。图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png(也就是下方图片)

莱森:利用一致性MJ 出海马体写真的教程来啦

Midjourney cref海马体写真教程来啦!10分钟不到出写真~视频在下面(记得mark看文字笔记)超低学习成本,你只要会用任意手机修图软件...就能解决Midjourney Cref角色一致性直出之后的「形似而神不似」的问题。简而言之,文字笔记:得益于--cref[image url]和--cw[0~100],midjourney能够迅速达成角色一致性的目的而无需Lora。其中,cref代表character reference(角色参考);cw则代表character weight(参考权重),默认为100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到0。你不需要对角色原图使用/describe来贴近目标生成角色的形象,因为--cref会帮你完成这件事情。于是,风格复制和服装的替换,则应当用提示词(prompt)和--sref[image url]来解决。顾名思义,--sref代表style reference,权重参数为--sw[0~1000],默认值100,越高越接近参考图像的风格举个例子,现在我们要海马体这张图像,我们先用/describe指令反推海马体的提示词,再配合--sref[海马体图像的url],就可以轻松复制图像风格。在回车之前,检查你的提示词,不要出现和sref风格差异过大的prompt;也可以增加一些你之前学过的有用的prompt。

Midjourney V6 更新风格参考命令2.0 "--sref "

在这一步中,我们将以我们的风格参考图像的视觉风格创建一幅新图像。我从上面的狐狸网格中选择了U4。使用“风格参考”图像(--sref)的魔力在于,Midjourney将努力只捕捉参考图像的美学特质,而不是其语义内容。从这个意义上讲,我们可以将--sref视为一种文本扩展类型的快捷方式。想想创建狐狸图像的提示。由于--sref,对于我的新图像,我将不必重新输入“描绘了一幅质感丰富、厚涂、富有表现力的油画”、“画作呈现了青绿色和黑色的混合”或“气氛悬念且神秘”,因为从某种意义上说,Midjourney已经为我完成了这些。重要的是,新提示本身没有美学内容。这有助于sref的执行!我将使用狐狸图像作为我的--sref,以提供美学内容。提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0然后我们得到了:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png

其他人在问
scref 使用指南
以下是关于 sref 的使用指南: 风格一致: 指南:垫图链接(可选择)+关键词+“sref” +图片链接+风格化参数+“v 6.0” 指令:url +关键词+“sref” + url +“sw” +“v 6.0” sw 风格化参数:用于控制整体的风格强度,默认为 100,数值范围为 参考多张图像风格:url 间使用空格隔开,权重代表不同参考风格的权重,如 sref url A::2 url B::3 url C::5 适用模型:V6 和 Niji V6 常见问题: 您可以在使用 Vary Region 期间使用 sref 来增强美学匹配/混合。 以下是如何在使用 Vary Region 时使用sref 图像来帮助加强风格的方法: 确保 remix 已打开。放大 点击。 保留提示中确定画布总体构图的部分。尽量保留尽可能多的部分,但不要耗尽内存。如果您的细节没有显示出来,那可能是内存问题。编辑提示以删除一些不必要的细节,以腾出空间添加新的细节。 将您的细节添加到提示中。 记得用一些详细的描述(至少 5 7 个词)描述它。 现在,您可以通过将基本图像用作 sref 来加强您的添加部分的风格(视觉美学)。右键单击放大后的图像中心,从下拉菜单中选择复制链接。将该链接添加为您的sref。 详细步骤: sref 参数允许我们使用通过 URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅以下的 1 2 3 步骤教程,以帮助您开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644 49b4 4831 95b1 486d05452313.png
2024-08-18
claude使用教程
以下是关于 Claude 的使用教程: Claude 是由 Anthropic 公司开发的一款 AI 助手,以开创性计算机科学家克劳德·香农(Claude Shannon)的名字命名。它是基于自然语言处理技术和人工智能算法的聊天机器人,可以使用自然语言理解技术来理解人类语言,并使用自然语言生成技术进行回答和梳理,为各种应用提供支持,包括但不限于数据分析、自动化和个性化辅助。 要使用 Claude 的 Computer Use 功能,目前此功能只针对开发者在 API 中开放使用。 注册 Claude 的步骤如下: 1. 访问 Claude 的官方网站。 2. 点击注册或登录界面中的“Sign Up”或“Continue with email”选项。 3. 填写邮箱地址并设置密码,然后提交表单。 4. 系统会向邮箱发送一封验证邮件,打开邮件并使用其中的验证码完成邮箱验证。 如果在注册过程中遇到需要海外手机号接收验证码的问题,有以下可能的解决方案: 1. 使用虚拟海外号服务,如 SMSActivate、SMSPool 等,购买一个海外虚拟手机号来接收 Claude 的验证码。 2. 借助第三方服务网站如 uiuihao.com 完成注册 Claude 账号。 3. 如果有海外朋友,可以请他们帮忙接收验证码,并将验证码告知。 完成注册后,若希望升级到 Claude Pro 版本以获取更强大的功能和更高的 API 调用限额,需要填写支付信息并选择一个合适的订阅计划。但需注意,订阅 Claude Pro 可能需要使用海外支付方式。同时,Claude.ai 目前处于公开测试阶段,未付费用户使用平台可能会受到一些限制。 另外,给 Claude 的指示质量会对其输出的质量产生很大影响,特别是对于复杂任务。
2024-11-05
ai生成视频教程
以下是关于 AI 生成视频的教程: 使用 Adobe Firefly 生成带有文本提示和图像的视频: 在 Advanced 部分,您可以使用 Seed 选项添加种子编号,以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。选择 Generate 进行生成。 将小说做成视频的制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 AI 视频工具合集: Runway(有免费额度) 网址:https://app.runwayml.com/videotools/ 官方使用教程:https://academy.runwayml.com/ 知识库详细教程: 简单介绍:支持文生视频、图生视频,视频生视频;使用英文提示词;文生视频支持正向提示词、风格选择、运镜控制、运动强度控制、运动笔刷,支持 16:9、9:16、1:1、4:3、3:4、21:9 尺寸,可设置种子值;图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同;生成好的视频可以延长时间,默认生成 4s 的视频。 Stable video(有免费额度) 网址:https://www.stablevideo.com/generate 知识库详细教程: 简单介绍:支持文生视频、图生视频,仅英文;图生视频不可写 prompt,提供多种镜头控制;文生视频先生成 4 张图片,选择其中一张图片以后再继续生成视频。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2024-10-31
COZE教程
以下是关于 Coze 教程的相关信息: 这可能是全网最好的 Coze 教程之一,能一次性带你入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南: 长文预警,请视情况收藏保存。 核心看点: 通过实际案例逐步演示,用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent。 开源 AI Agent 的设计到落地的全过程思路。 10 多项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群: 任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍)。 希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。此外,还有 Coze 官方教程可供参考。
2024-10-29
可灵AI的教程
以下是关于可灵 AI 的教程: 可灵(免费): 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 相关链接: 可灵官网:https://klingai.kuaishou.com/ 知识库详细教程: 使用可灵处理图片生成视频的步骤(以快影为例): 1. 打开快影(需要先通过内测申请),选择 AI 创作。 2. 选择 AI 生成视频。 3. 选择图生视频。 4. 上传处理好的图片,填写想要的互动动作和效果,然后点击生成视频。 5. 排队等待生成结束,点击下载。
2024-10-26
有可灵的教程吗
以下是关于可灵的教程和介绍: 可灵是一款由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频。 教程方面: 知识库详细教程: 功能特点: 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 使用相关: 最初采用内测邀请制,现在已向所有用户开放使用。 价格方面,相对较高。重度用户最高档年费可能达几千元人民币,平均每月使用成本在 400 到 600 元人民币之间。但临时或轻度使用有每日免费点数和 60 多元单月的最便宜包月选项。
2024-10-26
ai绘画相关的教程
以下为一些 AI 绘画相关的教程: 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 线稿上色 Midjourney+Stable Diffusion:在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如上面是用 midjourney 生成线稿,PS 稍微做一些修正,再用 controlnet 控制,stable diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。作者:三思。先欣赏下作品: 1、线稿产出:mj 关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive 2、ps 手动手动重绘错误的地方:有些图出来没有阴影容易飘,可以自己画一个出来 SD 新手:视频教程 从 0 入门 AI 绘画教程:🔥强烈推荐,学完变大神系列章节教学视频: 第一节课:AI 绘画原理与基础界面 第二节课:20 分钟搞懂 Prompt 与参数设置,你的 AI 绘画“咒语”学明白了吗? 第三节课:打破次元壁!用 AI“重绘”照片和 CG 第四节课:AI 绘画模型,“画风”自由切换 第五节课:提高 AI 绘画分辨率的方式 第六节课:LoRa | Hypernetwork 概念简析 第七节课:定向修手修脸,手把手教你玩转局部重绘! 第八节课:提示词补全翻译反推,“终极”放大脚本与细节优化插件 第九节课:LoRA 从原理到实践 第十节课:零基础掌握 ControlNet!
2024-10-25