直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

--scref 教程

回答

以下是关于“--sref”的教程:

  • “--sref”参数允许我们使用通过 URL 提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。
    • 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571
    • 请参阅 1-2-3 步骤教程开始使用风格参考图像。
    • 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png
  • 莱森的教程:
    • Midjourney cref 海马体写真教程,10 分钟不到出写真。
    • 得益于--cref[image url]和--cw[0~100],midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,cref 代表 character reference(角色参考);cw 则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。
    • 风格复制和服装的替换,应当用提示词(prompt)和--sref[image url]来解决。--sref 代表 style reference,权重参数为--sw[0~1000],默认值 100,越高越接近参考图像的风格。
    • 例如,要复制海马体图像风格,先用/describe 指令反推海马体的提示词,再配合--sref[海马体图像的 url]。
  • 详细步骤:
    • 将“--sref”和 URL 添加到提示的末尾。
    • 在这一步中,以风格参考图像的视觉风格创建新图像。使用“风格参考”图像(--sref)时,Midjourney 将努力只捕捉参考图像的美学特质,而不是其语义内容。新提示本身没有美学内容有助于“sref”的执行。
    • 示例:提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0 然后得到:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Midjourney V6 更新风格参考命令2.0 "--sref "

--sref参数允许我们使用通过URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571请参阅以下的1-2-3步骤教程,以帮助您开始使用风格参考图像。图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644-49b4-4831-95b1-486d05452313.png(也就是下方图片)

莱森:利用一致性MJ 出海马体写真的教程来啦

Midjourney cref海马体写真教程来啦!10分钟不到出写真~视频在下面(记得mark看文字笔记)超低学习成本,你只要会用任意手机修图软件...就能解决Midjourney Cref角色一致性直出之后的「形似而神不似」的问题。简而言之,文字笔记:得益于--cref[image url]和--cw[0~100],midjourney能够迅速达成角色一致性的目的而无需Lora。其中,cref代表character reference(角色参考);cw则代表character weight(参考权重),默认为100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到0。你不需要对角色原图使用/describe来贴近目标生成角色的形象,因为--cref会帮你完成这件事情。于是,风格复制和服装的替换,则应当用提示词(prompt)和--sref[image url]来解决。顾名思义,--sref代表style reference,权重参数为--sw[0~1000],默认值100,越高越接近参考图像的风格举个例子,现在我们要海马体这张图像,我们先用/describe指令反推海马体的提示词,再配合--sref[海马体图像的url],就可以轻松复制图像风格。在回车之前,检查你的提示词,不要出现和sref风格差异过大的prompt;也可以增加一些你之前学过的有用的prompt。

Midjourney V6 更新风格参考命令2.0 "--sref "

在这一步中,我们将以我们的风格参考图像的视觉风格创建一幅新图像。我从上面的狐狸网格中选择了U4。使用“风格参考”图像(--sref)的魔力在于,Midjourney将努力只捕捉参考图像的美学特质,而不是其语义内容。从这个意义上讲,我们可以将--sref视为一种文本扩展类型的快捷方式。想想创建狐狸图像的提示。由于--sref,对于我的新图像,我将不必重新输入“描绘了一幅质感丰富、厚涂、富有表现力的油画”、“画作呈现了青绿色和黑色的混合”或“气氛悬念且神秘”,因为从某种意义上说,Midjourney已经为我完成了这些。重要的是,新提示本身没有美学内容。这有助于sref的执行!我将使用狐狸图像作为我的--sref,以提供美学内容。提示词:A young man stands at the edge of the forest cliff,looking over the ocean below.--sref https://s.mj.run/9DFZsjKwkyE --v 6.0翻译:一个年轻人站在森林悬崖的边缘,俯瞰下方的海洋。--sref https://s.mj.run/9DFZsjKwkyE --v 6.0然后我们得到了:whatnostop_A_young_man_stands_at_the_edge_of_the_forest_cliff_l_82470548-cc11-4cdc-abac-bab5091ba111.png

其他人在问
scref 使用指南
以下是关于 sref 的使用指南: 风格一致: 指南:垫图链接(可选择)+关键词+“sref” +图片链接+风格化参数+“v 6.0” 指令:url +关键词+“sref” + url +“sw” +“v 6.0” sw 风格化参数:用于控制整体的风格强度,默认为 100,数值范围为 参考多张图像风格:url 间使用空格隔开,权重代表不同参考风格的权重,如 sref url A::2 url B::3 url C::5 适用模型:V6 和 Niji V6 常见问题: 您可以在使用 Vary Region 期间使用 sref 来增强美学匹配/混合。 以下是如何在使用 Vary Region 时使用sref 图像来帮助加强风格的方法: 确保 remix 已打开。放大 点击。 保留提示中确定画布总体构图的部分。尽量保留尽可能多的部分,但不要耗尽内存。如果您的细节没有显示出来,那可能是内存问题。编辑提示以删除一些不必要的细节,以腾出空间添加新的细节。 将您的细节添加到提示中。 记得用一些详细的描述(至少 5 7 个词)描述它。 现在,您可以通过将基本图像用作 sref 来加强您的添加部分的风格(视觉美学)。右键单击放大后的图像中心,从下拉菜单中选择复制链接。将该链接添加为您的sref。 详细步骤: sref 参数允许我们使用通过 URL(地址链接)提供的现有图像或图像的大致视觉特征、美学和氛围创建新图像。 官方详细步骤地址:https://discord.com/channels/662267976984297473/1204491188539883571 请参阅以下的 1 2 3 步骤教程,以帮助您开始使用风格参考图像。 图像地址链接:whatnostop_A_textured_impasto_expressive_oil_painting_depicting_d63d1644 49b4 4831 95b1 486d05452313.png
2024-08-18
dify教程
以下是关于 Dify 的相关教程: 接入企业微信: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 部署自己的 Dify 网站: Dify 有两种使用方式:云服务版本,直接在官网 dify.ai 上注册账号使用;部署社区版,开源,可商用,但不能作为多租户服务使用,对个人使用完全无限制。 部署前提条件:2 核 4G 云服务器一台 = 159 元。
2024-11-22
咱们有dify的好的实践教程或示例吗
以下是关于 Dify 的一些实践教程和相关信息: 接入企业微信: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 构建知识库的具体步骤: 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 配置索引方式:Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 Dify 介绍:Dify 是一个开源的大模型应用开发平台,它通过结合后端即服务和 LLMOps 的理念,为用户提供了一个直观的界面来快速构建和部署生产级别的生成式 AI 应用。该平台具备强大的工作流构建工具,支持广泛的模型集成,提供了一个功能丰富的提示词 IDE,以及一个全面的 RAG Pipeline,用于文档处理和检索。此外,Dify 还允许用户定义 Agent 智能体,并通过 LLMOps 功能对应用程序的性能进行持续监控和优化。Dify 提供云服务和本地部署选项,满足不同用户的需求,并且通过其开源特性,确保了对数据的完全控制和快速的产品迭代。Dify 的设计理念注重简单性、克制和快速迭代,旨在帮助用户将 AI 应用的创意快速转化为现实,无论是创业团队构建 MVP、企业集成 LLM 以增强现有应用的能力,还是技术爱好者探索 LLM 的潜力,Dify 都提供了相应的支持和工具。Dify 官方手册:https://docs.dify.ai/v/zhhans 。一般地,如果是个人研究,推荐单独使用 Dify,如果是企业级落地项目推荐使用多种框架结合,效果更好。
2024-11-22
AI教程
以下是为您提供的 AI 教程相关内容: AI 线上绘画教程: 如果您在工作中需要大量图片,又不想为图片付费或担心版权问题,且无法自己拍摄,AI 生图是高效的解决办法。人像、动物、自然风景或人造景观的图都能用 AI 完成。但主流工具 midjourney 付费成本高,stable diffusion 硬件门槛不低。不过,有像这样的免费在线 SD 工具网站。本教程旨在解决不会使用的问题,计划让入门玩家在半个小时内自由上手创作绘图。如果半小时内无法理解工具使用方法,可联系作者。本教程适用于入门玩家,用于作图或职场应用。作者欢迎读者挑错、评论或微信沟通(记得备注来意:ai 绘图交流),教程内容会持续更新。 AI 视频软件教程: 为您提供以下相关链接: 新手如何学习 AI: 1. 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念,了解人工智能及其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅:在「」中,有一系列为初学者设计的课程。可通过在线教育平台(如 Coursera、edX、Udacity)上的课程按自己节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),可根据兴趣选择特定模块深入学习,一定要掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试:理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。在知识库有很多实践后的作品、文章分享,欢迎您实践后分享。 5. 体验 AI 产品:与现有的 AI 产品(如 ChatGPT、Kimi Chat、智谱、文心一言等)进行互动,了解其工作原理和交互方式,获得对 AI 实际应用表现的第一手体验,激发对 AI 潜力的认识。
2024-11-21
ComfyUI 安装教程
以下是 ComfyUI 的安装教程: 1. 电脑硬件要求: 系统:Windows 7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统、AMD 显卡、低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。 下载并更新 Nvidia 显卡驱动下载地址:https://www.nvidia.cn/geforce/drivers/ 2. 下载并安装所需要环境(安装过 WebUI 的同学请忽略本步骤): 依次下载并安装 python、VSCode、Git,安装过程中一直点击勾选对应选项,一直下一步。 Python 版本 3.10 以上,下载地址: VSCode 下载地址: Git 下载地址: 安装 Python 时选中“将 Python 添加到系统变量”。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network ,下载文件:cuda_12.2.0_536.25_windows.exe 3. 安装 ComfyUI: 地址:https://github.com/comfyanonymous/ComfyUI 可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git 或者下载安装包 下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 4. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 5. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 6. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到你已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 7. 快捷键(未提及具体快捷键内容)
2024-11-17
midjourny教程
以下是关于 Midjourney 的一些教程: 1. 线稿上色: 先使用 Midjourney 生成线稿,关键词如“Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive”。 用 PS 手动修正错误的地方。 再用 ControlNet 控制,Stable Diffusion 上色。 2. 利用一致性出海马体写真: 得益于“cref”,Midjourney 能够迅速达成角色一致性的目的而无需 Lora。其中,“cref”代表 character reference(角色参考);“cw”则代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。如果只想关注人脸,请调低到 0。 风格复制和服装的替换,应当用提示词(prompt)和“sref”,默认值 100,越高越接近参考图像的风格。 先用“/describe”指令反推海马体的提示词,再配合“sref”,就可以轻松复制图像风格。在回车之前,检查提示词,不要出现和“sref”风格差异过大的 prompt;也可以增加一些之前学过的有用的 prompt。然后 Upscale 最满意的那一张。 3. 人物一致性: YouTube 大神 TAO 最新的教程,原理是把已经确定好的角色生成一个固定成一个快捷命令,每一个角度一个快捷命令,再通过 vray 重绘调用命令重回人物头部。 具体步骤包括:生成图像(提示词加入分割描述,让一张图生成多张同空间小图);通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类);上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张);放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。
2024-11-17
用AI生成动画的教程
以下是用 AI 生成动画的一些教程: 1. 端午节动态视频: 可以使用即梦或 runway 等工具。如果要字不动,可以先在剪映里添加文字 logo 素材。 先什么关键词都不写,如果效果不满意,再添加关键词。 将视频放入剪映,放上 PNG 透明底图后导出。 2. Runway 生成 AI 动画: 使用图片+文字描述功能,将 MJ 生成的图片增加对应的动态描述,输入 Runway,同时增加镜头变换的设置。具体教程可查看。 3. 利用 AI 批量生成、模仿和复刻《小林漫画》(内含 coze 搭建视频教程): 作者景淮会带着大家试着搭建一个扣子(Coze)工作流来直接生成文字和图片。本文会按照需求分析、扣子搭建、扣子使用链接分享、批量生产图片、总结的顺序进行。
2024-11-17