Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

--scref 教程

Answer

以下是关于“--sref”的教程:

  • “--sref”参数允许我们使用通过 URL 提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。
    • 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571
    • 请参阅 1-2-3 步骤教程开始使用风格参考图像。
    • 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png
  • 莱森的教程:
    • Midjourney cref 海马体写真教程,10 分钟不到出写真。
    • 得益于--cref[image url]和--cw[0~100],midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。
    • 风格复制和服装的替换,应当用提示词(prompt)和--sref[image url]来解决。--sref 代表 style reference,权重参数为--sw[0~1000],默认值 100,越高越接近参考图像的风格。
    • 例如,要复制海马体图像风格,先用/describe 指令反推海马体的提示词,再配合--sref[海马体图像的 url]。
  • 详细步骤:
    • 将“--sref”和 URL 添加到提示的末尾。
    • 在这一步中,以风格参考图像的视觉风格创建新图像。使用“风格参考”图像(--sref)时,Midjourney 将努力只捕捉参考图像的美学特质,而不是其语义内容。新提示本身没有美学内容有助于“sref”的执行。
    • 示例:提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 然后得到:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png
Content generated by AI large model, please carefully verify (powered by aily)

References

Midjourney V6 更新风格参考命令2.0 "--sref "

--sref参数允许我们使用通过URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571请参阅以下的1-2-3步骤教程,以帮助您开始使用风格参考图像。图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png(也就是下方图片)

莱森:利用一致性MJ 出海马体写真的教程来啦

Midjourney cref海马体写真教程来啦!10分钟不到出写真~视频在下面(记得mark看文字笔记)超低学习成本,你只要会用任意手机修图软件...就能解决Midjourney Cref角色一致性直出之后的「形似而神不似」的问题。简而言之,文字笔记:得益于--cref[image url]和--cw[0~100],midjourney能够迅速达成角色一致性的目的而无需Lora。其中,cref代表character reference(角色参考);cw则代表character weight(参考权重),默认为100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到0。你不需要对角色原图使用/describe来贴近目标生成角色的形象,因为--cref会帮你完成这件事情。于是,风格复制和服装的替换,则应当用提示词(prompt)和--sref[image url]来解决。顾名思义,--sref代表style reference,权重参数为--sw[0~1000],默认值100,越高越接近参考图像的风格举个例子,现在我们要海马体这张图像,我们先用/describe指令反推海马体的提示词,再配合--sref[海马体图像的url],就可以轻松复制图像风格。在回车之前,检查你的提示词,不要出现和sref风格差异过大的prompt;也可以增加一些你之前学过的有用的prompt。

Midjourney V6 更新风格参考命令2.0 "--sref "

在这一步中,我们将以我们的风格参考图像的视觉风格创建一幅新图像。我从上面的狐狸网格中选择了U4。使用“风格参考”图像(--sref)的魔力在于,Midjourney将努力只捕捉参考图像的美学特质,而不是其语义内容。从这个意义上讲,我们可以将--sref视为一种文本扩展类型的快捷方式。想想创建狐狸图像的提示。由于--sref,对于我的新图像,我将不必重新输入“描绘了一幅质感丰富、厚涂、富有表现力的油画”、“画作呈现了青绿色和黑色的混合”或“气氛悬念且神秘”,因为从某种意义上说,Midjourney已经为我完成了这些。重要的是,新提示本身没有美学内容。这有助于sref的执行!我将使用狐狸图像作为我的--sref,以提供美学内容。提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0然后我们得到了:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png

Others are asking
scref 使用指南
以下是关于 sref 的使用指南: 风格一致: 指南:垫图链接(可选择)+关键词+“sref” +图片链接+风格化参数+“v 6.0” 指令:url +关键词+“sref” + url +“sw” +“v 6.0” sw 风格化参数:用于控制整体的风格强度,默认为 100,数值范围为 参考多张图像风格:url 间使用空格隔开,权重代表不同参考风格的权重,如 sref url A::2 url B::3 url C::5 适用模型:V6 和 Niji V6 常见问题: 您可以在使用 Vary Region 期间使用 sref 来增强美学匹配/混合。 以下是如何在使用 Vary Region 时使用sref 图像来帮助加强风格的方法: 确保 remix 已打开。放大 点击。 保留提示中确定画布总体构图的部分。尽量保留尽可能多的部分,但不要耗尽内存。如果您的细节没有显示出来,那可能是内存问题。编辑提示以删除一些不必要的细节,以腾出空间添加新的细节。 将您的细节添加到提示中。 记得用一些详细的描述(至少 5 7 个词)描述它。 现在,您可以通过将基本图像用作 sref 来加强您的添加部分的风格(视觉美学)。右键单击放大后的图像中心,从下拉菜单中选择复制链接。将该链接添加为您的sref。 详细步骤: sref 参数允许我们使用通过 URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅以下的 1 2 3 步骤教程,以帮助您开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644 49b4 4831 95b1 486d05452313.png
2024-08-18
deepseek教程
以下是关于 DeepSeek 的教程: 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 获得游戏代码:只需点击开始对话,左边选择代码助手,直接向其许愿即可。 提示词使用: 效果对比:用 Coze 做了小测试,可对比查看 。 如何使用: 1. 搜索 www.deepseek.com,点击“开始对话”。 2. 将装有提示词的代码发给 DeepSeek 。 3. 认真阅读开场白之后,正式开始对话。 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 。 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向,Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源,Claude 3.5 Sonnet 是最得力的助手。 使用技巧: 特点与优势: 1. 推理型大模型:核心是推理型大模型,不需要用户提供详细步骤指令,通过理解用户真实需求和场景提供答案。 2. 更懂人话:能够理解用户用“人话”表达的需求,不需要用户学习和使用特定提示词模板。 3. 深度思考:回答问题时能够进行深度思考,不是简单罗列信息。 4. 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 正确方法: 1. 可以扔掉提示词模板:用自然语言描述,直接描述真实场景和具体需求,提示词模板的目的是清晰表达,如果使用也完全没问题。 2. 让 DeepSeek“说人话”:在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,可以让 DeepSeek 的回答更加通俗易懂。 3. 激发深度思考:让 DeepSeek 进行批判性思考、反面思考和复盘,以恢复其深度思考能力。 4. 文风转换:通过指定模仿的作家和文体,让 DeepSeek 生成符合特定风格的文本。
2025-02-01
零基础,如何系统性的学习和运用AI,请提供一个系统性的教程学习
对于零基础学习和运用 AI,以下是一个系统性的教程: 一、了解 AI 基本概念 首先,建议阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,这些文章通常会介绍 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您将找到一系列为初学者设计的课程。这些课程将引导您了解生成式 AI 等基础知识,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。同时,建议您一定要掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 理论学习之后,实践是巩固知识的关键。尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。通过与这些 AI 产品的对话,您可以获得对 AI 在实际应用中表现的第一手体验,并激发您对 AI 潜力的认识。 六、深入学习 Python 编程(如果希望继续精进) 至少熟悉以下内容: 1. Python 基础 基本语法:了解 Python 的基本语法规则,比如变量命名、缩进等。 数据类型:熟悉 Python 中的基本数据类型,如字符串(String)、整数(Integer)、浮点数(Float)、列表(List)、元组(Tuple)、字典(Dictionary)等。 控制流:学习如何使用条件语句(if)、循环语句(for 和 while)来控制程序的执行流程。 2. 函数 定义和调用函数:学习如何定义自己的函数,以及如何调用现有的函数。 参数和返回值:理解函数如何接收参数和返回结果。 作用域和命名空间:了解局部变量和全局变量的概念,以及它们是如何在 Python 中工作的。 3. 模块和包 导入模块:学习如何导入 Python 标准库中的模块或者第三方库。 使用包:理解如何安装和使用 Python 包来扩展程序的功能。 4. 面向对象编程(OOP) 类和对象:了解面向对象编程的基本概念,包括类的定义和实例化。 属性和方法:学习如何为类定义属性和方法,以及如何通过对象来调用它们。 继承和多态:了解类之间的继承关系以及如何实现多态。 5. 异常处理 理解异常:了解什么是异常,以及它们在 Python 中是如何工作的。 异常处理:学习如何使用 try 和 except 语句来处理程序中可能发生的错误。 6. 文件操作 文件读写:学习如何打开文件、读取文件内容以及写入文件。 文件与路径操作:理解如何使用 Python 来处理文件路径,以及如何列举目录下的文件。
2025-01-29
cursor教程
以下是关于 Cursor 教程的相关内容: 1. 中文教程网站: 网站:,提供中文教程,帮助用户更好地掌握 AI 代码编辑器 Cursor 的使用方法,适合想深入了解和学习 Cursor 的用户。 2. 配置教程: 从穷👻套餐 2.0 开始,对 Cursor 的配置主要集中在接入更多模型,如 Qwen2.5Coder、Llama3.3、deepseek v3、gemini2.0flash 等,大部分是为了省 API 费用,但未完全挖掘出 Cursor 的潜力。接入再多的模型也无法完全填平 Cursor 免费版和 Cursor Pro 的差距,如 Agent、Yolo、Composer、Tab 代码补全等功能被限制。此次收集到 3 个插件,2 大 API 和 N 个新的提示语用法,给 Cursor 装配上 Tab 代码补全、AI Agent、全系大模型接入、开发进度管理、状态回滚等功能。 3. 0 编程基础入门极简使用指南: 下载 Cursor:https://www.cursor.com/ 注册账号,可用邮箱如 google/github/163/qq 邮箱,直接接受二维码登录。 安装中文包插件。 在设置中 Rule for AI 配置,按 ctrl/cmd+i 输入需求,如“帮我做一个贪吃蛇游戏,在网页中玩”,并清晰表达需求,包括游戏界面、蛇的移动、食物、增长、死亡条件、得分、难度递增和游戏结束等规则。
2025-01-29
coze教程
以下是关于 Coze 教程的相关内容: 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南: 长文预警,请视情况收藏保存。 核心看点: 通过实际案例逐步演示,用 Coze 工作流构建能够稳定按照模板要求生成结构化内容的 AI Agent。 开源 AI Agent 的设计到落地的全过程思路。 10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群: 任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍)。 希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 Coze 概述: 字节的官方解释:Coze 是新一代一站式 AI Bot 开发平台。无论是否有编程基础,都可在 Coze 平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单的问答到处理复杂逻辑的对话。并且,可以将搭建的 Bot 发布到各类社交平台和通讯软件上,与这些平台/软件上的用户互动。 个人认为:Coze 是字节针对 AI Agent 这一领域的初代产品,在 Coze 中将 AI Agent 称之为 Bot。 字节针对 Coze 这个产品部署了两个站点,分别是国内版和海外版。 国内版: 网址:https://www.coze.cn 官方文档教程:https://www.coze.cn/docs/guides/welcome 大模型:使用的是字节自研的云雀大模型,国内网络即可正常访问。 海外版: 网址:https://www.coze.com 官方文档教程:https://www.coze.com/docs/guides/welcome 大模型:GPT4、GPT3.5 等大模型(可以在这里白嫖 ChatGPT4,具体参考文档:),访问需要突破网络限制的工具。 参考文档:https://www.coze.com/docs/zh_cn/welcome.html AI Agent 的开发流程: Bot 的开发和调试页面布局主要分为如下几个区块: 提示词和人设的区块。 Bot 的技能组件。 插件。 工作流。 Bot 的记忆组件。 知识库。 变量。 数据库。 长记忆。 文件盒子。 一些先进的配置,如触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色)。下面会逐一讲解每个组件的能力以及使用方式。
2025-01-28
liblib教程
以下是关于 liblib 的教程: 线稿提取教程: 1. 出两张彩色的稍连贯的图片。 2. 提取第一张的线稿图: 用 liblib 提取,进入 https://www.liblib.art/ 。 点击【在线生图】。 滑到下面找出【ControlNet】并点击右侧。 点击上传图片。 勾选【启用】、【允许预览】、【Lineart】,预处理器选择【写实线稿提取】,并点击【运行&预览】。 把右侧的黑白图拉到左侧栏,预处理器改为【invert(白底黑线反色)】,并点击【运行&预览】,线稿提取大功告成!右键图片另存即可。 文生图简明操作流程: 1. 定主题:确定要生成的图片主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 4. 设置 VAE:选择 840000 那一串。 5. CLIP 跳过层:设成 2。 6. Prompt 提示词:用英文写需求,单词、短语之间用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写避免产生的内容,单词、短语组合,中间用英文半角逗号隔开。 8. 采样方法:一般选 DPM++2M Karras,也可参考 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 时,在 30 40 之间。 10. 尺寸:根据喜好和需求选择。 11. 生成批次:默认 1 批。 此外,还有 Liblibai 简易上手教程,包含概念与功能说明、简明操作流程、prompt 简易技巧三部分。可通过进入免费在线生图。若有不明白之处,可在评论区交流或添加微信:designurlife1st 沟通。
2025-01-28
从零到一的 LLM 学习教程
以下是从零到一学习 LLM 的教程: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 了解 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 运用 LLM 预训练框架,如 PyTorch、TensorFlow 等。 微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 进行模型评估和可解释性研究。 实现模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 此外,为您推荐以下 LLM 开源中文大语言模型及数据集集合的学习资源: 1. 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,主要包括:吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版,吴恩达《Building Systems with the ChatGPT API》课程中文版,吴恩达《LangChain for LLM Application Development》课程中文版等。 2. 提示工程指南: 地址: 简介:该项目基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 3. LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:Langchain 的中文文档,由是两个在 LLM 创业者维护,希望帮助到从刚进入 AI 应用开发的朋友们。 4. LLMs 九层妖塔: 地址: 简介:ChatGLM、ChineseLLaMAAlpaca、MiniGPT4、FastChat、LLaMA、gpt4all 等实战与经验。 关于 LLM 的预测原理: LLM 接触了包括教科书、文章、网站等在内的庞大数据集。在训练阶段,它们学会了理解语言的上下文和流动性,掌握了包括语法、风格,甚至是文本的语调等方面。当您用一个句子或问题来指导 LLM 时,它便利用自己所学的知识,预测接下来最可能的一个或几个词。这不仅是基于它在训练期间观察到的模式和规则的推测。 在提示工程方面,鉴于 LLM 的概率本质,提示工程师面临的挑战是如何引导 LLM 向着高度可预测和准确的结果方向发展。在相关课程中,您将学习许多技巧,这些技巧将帮助您掌握高度可预测的 LLM 输出结果的艺术和科学。但在深入学习之前,可以先从一些简单的练习开始,激活思维。
2025-01-28