直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

SD教程

回答

以下是关于 SD 教程的相关内容:

SD 做二维码教程

  • 好看的二维码欣赏:qrbtf 等。
  • 方法原文地址:https://stable-diffusion-art.com/qr-code/
  • 最近的相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作的方法。
  • 微信的二维码需要转一下:https://cli.im/weixin

SD 做中文文字教程

  • 制作思路:
    • 将中文字做成白底黑字,存成图片样式。
    • 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensors[e6415c4892]ControlNet 预设置。
    • 输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。
    • 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。
    • 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。
    • 打开高清修复,分辨率联系 1024 以上,步数:29 - 60

SD 的其他实践教程

  • 线稿上色 Midjourney + Stable Diffusion
  • 猫咪狗狗 lora
  • 字体设计机甲战士
  • 做盲盒 - 平面变 3D
  • MJ 出图 SD 放大
  • 七夕字体和图
  • 可爱毛粘字体
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:SD 做二维码

这两张应该用了mj的zoom out扩图以下教程是很早以前的教程:最近新出了融合二维码教程请看上面高亮块按照以下方法试验出了几个waytoAGI.com的二维码这个好看但是电脑能识别,手机不好识别还给小助理做了个炫酷的微信的二维码需要转一下https://cli.im/weixin[heading2]用SD做二维码教程如下:[content]方法原文地址:https://stable-diffusion-art.com/qr-code/引言[Reddit](https://www.reddit.com/r/StableDiffusion/comments/141hg9x/controlnet_for_qr_code/)最近的一篇帖子展示了一系列使用Stable Diffusion创建的艺术二维码。这些二维码是使用[定制训练的](https://arstechnica.com/information-technology/2023/06/redditor-creates-working-anime-qr-codes-using-stable-diffusion/)[ControlNet](https://stable-diffusion-art.com/controlnet/)模型生成的。就像在Stable Diffusion社区的另一天一样,人们很快就想出了如何在没有自定义模型的情况下使用Stable Diffusion制作QR码。在这篇文章中,您将学习如何生成这样的二维码。

教程:SD 做中文文字-持续更新中

Nenly同学的视频教程来了:【“牛逼”的教程来了!一次学会AI二维码+艺术字+光影光效+创意Logo生成,绝对是B站最详细的Stable Diffusion特效设计流程教学!AI绘画进阶应用-哔哩哔哩】https://b23.tv/c33gTIQ还有个群友根据下面的教程自己做了个视频教程非常详细1.将中文字做成白底黑字,存成图片样式2.使用文生图的方式,使用大模型真实系,作者用的realisticVisionV20_v20.safetensors[e6415c4892]ControlNet预设置3.输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。4.同理可输出C4D模型,可自由贴图材质效果,3d,blender,oc rendering5.如果希望有景深效果,也可以打开depth(增加阴影和质感)6.打开高清修复,分辨率联系1024以上,步数:29-60本来想方一个b站视频,但是没有按照上面的实测,等看完之后再推荐当然https://firefly.adobe.com/也可以,但是sd感觉可操控性更强,尤其是中文字体

2. SD的各种实践教程

[教程:SD做二维码](https://waytoagi.feishu.cn/wiki/RsfFwo3wAiSZtzkNhUYcIrHqnIb)[教程:SD做中文文字-持续更新中](https://waytoagi.feishu.cn/wiki/JuiBwNTU1i3Lhwk7kzmcUHLUn0d)[教程:线稿上色Midjourney+Stable Diffusion](https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd)[教程:猫咪狗狗lora](https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg)[教程:字体设计机甲战士](https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd)[教程:做盲盒-平面变3D](https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe)[教程:MJ出图SD放大](https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf)[教程:七夕字体和图](https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU)[教程:可爱毛粘字体](https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd)

其他人在问
flux和sdXL出图的区别
Flux 和 SDXL 出图主要有以下区别: 1. 生成人物外观:Flux 存在女生脸油光满面、下巴等相同外观问题,而 SDXL 相对在这方面有改进。 2. 模型构成:SDXL 由 base 基础模型和 refiner 优化模型两个模型构成,能更有针对性地优化出图质量;Flux 中 Dev/Schnell 是从专业版中提取出来,导致多样性丧失。 3. 处理方式:在低显存运行时,可采用先使用 Flux 模型进行初始生成,再用 SDXL 放大的分阶段处理方式,有效控制显存使用。 4. 模型参数和分辨率:SDXL 的 base 模型参数数量为 35 亿,refiner 模型参数数量为 66 亿,总容量达 13G 之多,基于 10241024 的图片进行训练,可直接生成 1000 分辨率以上的图片,拥有更清晰的图像和更丰富的细节;而 Flux 在这方面相对较弱。
2024-12-20
flux和sd3.5出图的区别
Flux 和 SD3.5 出图存在以下区别: 1. 模型性质:Flux.1 有多种版本,如开源不可商用的 FLUX.1等。而 SD3.5 未提及相关性质。 2. 训练参数:Flux.1 的训练参数高达 120 亿,远超 SD3 Medium 的 20 亿。 3. 图像质量和提示词遵循能力:Flux.1 在图像质量、提示词跟随、尺寸适应、排版和输出多样性等方面超越了一些流行模型,如 Midjourney v6.0、DALL·E 3和 SD3Ultra 等。 4. 应用场景:Flux.1 可以在 Replicate 或 fal.ai 等平台上试用,支持在 Replicate、fal.ai 和 Comfy UI 等平台上使用,并且支持用户根据自己的数据集进行微调以生成特定风格或主题的图像。而 SD3.5 未提及相关应用场景。 5. 本地运行:文中尝试了在没有 N 卡,不使用复杂工作流搭建工具的 Mac Mini M1 上运行 FLUX.1,以及在边缘设备 Raspberry PI5B 上运行的情况,未提及 SD3.5 的相关内容。 6. 模型安装部署:对于 Flux.1,不同版本的模型下载后放置的位置不同,如 FLUX.1应放在 ComfyUI/models/unet/文件夹中。而 SD3.5 未提及相关安装部署内容。 7. 显存处理:对于 Flux.1,如果爆显存,“UNET 加载器”节点中的 weight_dtype 可以控制模型中权重使用的数据类型,设置为 fp8 可降低显存使用量,但可能会稍微降低质量。而 SD3.5 未提及相关显存处理内容。 8. 提示词使用:在训练 Flux 时,应尽量使用长提示词或自然语言,避免使用短提示词,因为 T5 自带 50%的删标。而 SD3.5 未提及相关提示词使用内容。
2024-12-20
sd的提示词有哪些语法
以下是关于 SD 提示词的语法: 1. 多个提示词之间使用英文半角符号“,”分隔,例如:masterpiece,best quality,ultradetailed,illustration,closeup,straight on,face focus,1girl,white hair,golden eyes,long hair,halo,angel wings,serene expression,looking at viewer。 2. 一般而言,概念性、大范围、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。大致顺序为:。 3. 每个词语本身自带的权重可能不同,模型训练集中较多出现的关键词,输入一个词就能极大影响画面;较少出现的关键词,输入多个相关词汇对画面影响效果可能有限。提示词的顺序很重要,越靠后的权重越低。关键词最好具有特异性,措辞越具体越好,避免抽象和有解释空间的措辞。 4. 可以使用括号人工修改提示词的权重,例如: 将权重减少为原先的 25%。 5. 可以通过 Prompt Editing 使得 AI 在不同的步数生成不一样的内容,语法为:例如:a,100 步采样,一开始。提示词为:fantasy landscape with a mountain and an oak in foreground shoddy 在第 25 步后,提示词为:fantasy landscape with a lake and an oak in foreground in background shoddy 在第 50 步后,提示词为:fantasy landscape with a lake and an oak in foreground in background masterful 在第 60 步后,提示词为:fantasy landscape with a lake and an oak in background masterful 在第 75 步后,提示词为:fantasy landscape with a lake and a christmas tree in background masterful。 6. 提示词还可以轮转,比如:在第一步时,提示词为“cow in a field”;在第二步时,提示词为"horse in a field.";在第三步时,提示词为"cow in a field",以此类推。 7. 交替词:in a field 可以支持多个词交替。 8. 可组合扩散(AND 语法):a cat AND a dog 比如想画一个猫和狗的混合物种,每一个要混合的东西支持加权重,比如 a cat:1.2 AND dog AND a benguin:2.2。通过继续向总数添加更多提示,这可以方便地生成微调的递归变化,比如 log AND frog:0.13 AND yellow eyes:0.08 。 请注意,权重值最好不要超过 1.5。
2024-12-19
SD 怎么赚钱
Stable Diffusion(SD)赚钱的方式有多种可能性: 1. 利用 SD 生成真人 AI 美女相关内容,创建账号吸引流量并实现变现。 2. 为用户生成个性化的头像、壁纸并收取费用。 3. 借助 SD 辅助完成动漫图画、插画等创作,并通过相关渠道获取收益。 4. 后续可能会有更多关于 SD 实际变现方式和案例的详细介绍。 需要注意的是,SD 完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。Stable Diffusion 模型第一个版本训练耗资 60 万美元,而提供资金支持正是 Stability AI 公司,其成立于 2020 年,最初资金都来自创始人兼 CEO Emad Mostaque。目前市面上主流的 AI 绘图软件除了 SD 还有 Midjourney,Midjourney 操作简单方便但需付费和科学上网,而 SD 开源免费但需要较好的电脑配置。
2024-12-19
sd最新的模式是什么
Stable Diffusion(SD)最新的模式包括: 1. 隐藏在光里的秘密,AI造字光与影的艺术中,将 lightingBasedPicture 模型的终止时机由 0.6 提高到 0.7 能使文字更好识别,但再提高字会显得太突兀,需把握平衡。 2. Stability AI 正式发布了期待已久的 SDXL 1.0。SDXL 1.0 由两个模型组成,第二个模型能生成更鲜艳、更准确的颜色,且比前身具有更好的对比度、光照和阴影。SDXL 1.0 是所有开放获取图像模型中参数数量最多的模型之一,拥有 3.5B 参数基础模型和 6.6B 参数模型集成管道。 如果您想要最新的 controlnet 模型,可以添加公众号【白马与少年】,回复【SD】获取。
2024-12-17
Sd文生图的专业术语有哪些
以下是一些关于 SD 文生图的专业术语: 1. 内容型提示词:主要用于描述想要的画面,如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”。 2. 标准化提示词:例如“,drawing,paintbrush”。 3. 权重:通过括号和特定数值来增加提示词的权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。 4. 反向提示词:告诉 AI 不要的内容,如“NSFw,”。 5. 采样迭代步数:指 AI 绘画去噪的次数,步数越高绘画越清晰,但绘画速度越慢,通常数值控制在 20 40 之间较好。 6. 采样方法:AI 生成图像时的特定算法,常用的有“Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM”。 7. 比例:尺寸并非越大越好,模型练图通常按 512x512 的框架绘制,高宽比尽量在这个数值附近。高清修复可放大图像倍率,高宽比主要控制画面比例。
2024-12-16
Suno教程
以下是关于 Suno 教程的相关内容: Suno 是一家研究驱动型的人工智能公司,其专门研发的生成式 AI 模型为创意工作者提供强大的创作工具。公司推出的 Chirp 模型,通过文字描述就能实现逼真的音乐和声音效果,包括配乐、人声、音效等,可广泛用于游戏、短视频、播客等领域。 去年制作过一期 Discord 版本的 Suno 操作教程(Suno 操作指北 V1),但一些知识点解释的不清楚,可能对新手玩家不够友好,而且官方在 Web 上推出 Chirp V2 版本模型后,之前的一些操作方式也迭代了,所以最近重新整理了一份新的教程(Suno 操作指北 V2)。 目前,Chirp V2 版本模型的最大生成时长为 1 分 20 秒,延续的最大生成时长为 60 秒。 在使用 Suno 生成音乐时,和大语言模型一样具有很强的随机性,输入(prompt/tag)质量往往决定输出(生成音乐)质量,在自定义模式(Custom Mode)下,有音乐风格(Style of Music)与歌词(Lyrics)两个主要的输入窗口。音乐风格窗口需要填写一些 tag 来描述整首音乐的风格和感觉,多个 tag 之间用“,”进行分隔,可识别的 tag 包括音乐类型/流派、人声/乐器、情绪/氛围、节奏、场景、混响、其他和声/音效等。 相关教程链接: PS:以下内容需要科学上网,请自行解决。
2024-12-22
可灵做影视教程
以下是关于可灵做影视教程的相关内容: 一、AIGC 电影化叙事实战教程 1. 什么是电影感和 AI 感 电影感:一切元素为叙事服务,将观众沉浸在故事中。 AI 感:每个镜头的画面是固定镜头,运动幅度小,易引起视觉疲劳;镜头间不构成视听语言,画面跳跃,未为故事服务;有过于明显的不和谐画面元素,如色调、角色特征、转场形式等。 2. 故事叙事 采用三幕式结构,包括设定、冲突和解决三个阶段,为叙事提供清晰节奏感。 塑造角色弧光,展现角色心理变化和成长历程,引发观众情感共鸣。 运用隐喻和主题,以艺术性方式传递深层含义和核心思想。 3. 画面分镜 先找到桥段中最重要的画面。 进行分镜设计,通过不同视角和构图增强叙事感。 掌握镜头调度,分解不同镜头切换方式,打造流畅视觉节奏。 保持视觉风格一致性,通过灯光、色调、滤镜统一确保观众视觉体验连贯。 4. 音乐与音效 把控情感节奏,用音乐引导观众情绪,配合故事起伏增强感染力。 设计音效细节,通过环境音、背景音营造氛围,增添真实感。 实现音乐与视觉配合,用音效表达故事内容。 二、AI 带你穿越时空,去拥抱儿时的自己 方法一:快影(可灵)处理图片 步骤: 1. 打开快影(需先通过内测申请),选择 AI 创作。 2. 选择 AI 生成视频。 3. 选择图生视频。 4. 上传处理好的图片,填写想要的互动动作和效果,点击生成视频。 5. 排队等待生成结束,点击下载。 效果展示:因图片本身效果差,转换视频后效果不太理想。 三、AI 视频相关软件教程 可灵相关教程链接: 其他工具教程链接:
2024-12-19
claude 教程
以下是关于 Claude 的教程: 1. 提示简介:Claude 经过训练成为一个乐于助人、诚实可靠、无害的助手,习惯于进行对话,您可用常规自然语言向其提出请求。您给 Claude 的指示质量对其输出质量影响较大,尤其对于复杂任务。 2. 最佳做法: 尽量具体,减少解读空间,限制操作空间。 具有描述性,使用类比。 强调,有时需对模型重复操作。 提供说明,指令和提示等,注意呈现信息的顺序,其可能影响输出,少样本示例的顺序也很重要,此为“近因偏差”。 给模型一个“出路”,若模型无法完成任务,提供备用路径可避免错误响应,例如在提问时加入类似“若答案不存在,则回复‘未找到’”的内容。 3. 网页应用的基本组成:在讲解 Coze 的 AI 应用前,先了解普通网页端应用的组成部分。以淘宝为例,简单操作流程可总结为:在前端页面填写或选择数据并点击按钮,页面数据通过某种方式保存到后端,在另一页面查询数据并展示。作者用 Claude 做了教学应用,可通过链接体验熟悉的操作页面访问(需要魔法):https://monica.im/share/artifact?id=cYYguyDQYnqdPwxQFebw2B 。通过此案例先了解应用的组成部分,因为在 Coze 的 AI 应用创建时也会包含这几部分。
2024-12-18
有关于Cursor 和 Windsurf 的对比和教程吗
以下是关于 Cursor 和 Windsurf 的对比和教程: 对比: 上下文理解能力:Windsurf 能够自动识别项目的重要信息,包括目录结构、文件依赖关系等,并且能在整个项目中追踪上下文,理解跨文件依赖和模块间调用。 功能特性:Windsurf 的 AI 代理可以在特定任务中“自己动手”,如调试、重构代码等,自动完成一些重复性操作。它还提供编辑和聊天两种模式,即编辑模式可以生成和修改代码,聊天模式专注于提供开发建议、解答代码问题。 应用支持:Windsurf 支持超过 70 种编程语言和框架,适用于前端、后端和数据科学等方向,并且支持 Windows、Mac 和 Linux 平台,能够无缝集成在常用的开发环境中。 模型和费用:两者都提供了免费的 GPT4o 和 Claude 3.5 Sonnet 模型,并且都有免费的使用期。但 Windsurf 的订阅费是 Cursor 的一半。 教程: 以“Windsurf 学习共创社区”为例,完整演示如何借助 AI 能力快速构建现代化 Web 应用。 技术选型:Vue + TypeScript。 目标用户:零基础开发学习者。 参考项目:Cursor101。 开发流程: 需求分析与代码生成。 环境配置自动化。 问题诊断与修复。 界面优化与细节打磨。 功能迭代与完善。 具体操作:输入需求,让 Windsurf 进行 code,它会将开发思路讲解出来并给出环境命令,无需打开终端配置环境。若出现报错,将报错信息返回给 cascade,经过自动检查后会给出 bug 所在。之后可进一步让 Windsurf 进行优化,注意一步一步来,以便及时更正 AI。还可优化导航栏的细节以及首页,插入细节图片等。
2024-12-18
recraft教程
Recraft 是一款由 Recraft AI 推出的多功能人工智能图像生成与编辑工具,自 2022 年成立以来,总部位于伦敦,赢得了全球超过 150 万设计师的青睐,包括 Netflix、Airbus 等大型企业团队。其具有以下特点: 1. 卓越的文本渲染:能将描述性文字精确转化为图像中的清晰文本,适用于品牌设计、广告文案和书籍封面等创意场景。 2. 高级控制:提供多种风格控制功能,确保品牌在图像中的视觉一致性,并支持生成矢量图形,对设计行业友好。 3. 多功能编辑:集成多种 AI 工具,包括擦除、修改、放大和背景去除,可高效调整图像细节。 4. 实时协作:无限画布功能支持多用户实时编辑,适合团队合作。 2024 年 10 月,Recraft 推出全新的 Recraft V3 模型,在 Hugging Face 的文本到图像生成基准测试中位居榜首,超越了 MidJourney 和 OpenAI 等。该模型提升了图像生成的精度和速度,优化了生成内容的风格一致性与细节控制。 以下是 Recraft 的使用教程: 1. 视频教程:【【AI 绘画】新皇登基!Recraft 力压 SD、Flux、MJ!【新手教程】】 2. 图文教程: 打开网址:https://www.recraft.ai/invite/r8D2TaM6b2 选择 hard flash 模式 输入提示词 3. 制作自己的胶片照片:可参考博主 4. 上传制作效果 5. 多图拼接融合:如制作纹身、刺绣等 6. 原画转绘:可参考作者乔阿呸的小红书[https://www.xiaohongshu.com/explore/6741ee430000000007032506?xsec_token=ABsSUQg31CYKdcruROYvRpDWoHYtgvsbFIWrdlPDGGQE=&xsec_source=pc_user) 此外,最近 recraft 太火了,尤其是 hard flash 风格模式,是小红书博主涨粉利器。网址为(使用群友的邀请链接注册可额外拿积分):https://x.com/ComfyUI/status/1862199591384621260 。黑五优惠码 recraft 在 3 号前使用促销码 BLACKYEAR70 买高级版年度计划只要 97.2 美金,每月 4000 积分,专业版年度计划 172.8 美金,每月 8400 积分。
2024-12-17
sora教程
以下是关于 Sora 及相关的教程信息: AI 视频方面: 软件教程: 工具教程: 应用教程: Python + AI 方面: 对于不会代码的人,有 20 分钟上手的教程,包括通过 OpenAI 的 API 生成文章缩略信息的代码重写及相关操作步骤。同时提醒妥善保管 API Key,OpenAI 的综合文档、API 使用、API Playground、API 案例与答疑的相关网址为:https://platform.openai.com/docs/overview 、https://platform.openai.com/docs/apireference 、https://platform.openai.com/playground 、https://cookbook.openai.com/ 。 工具教程: 开放公测,群友有实测案例。可参考卡兹克的教程介绍:https://mp.weixin.qq.com/s/YGEnIzfYA3xGpT9_qh56RA 以及 zho 总结的官方网站的案例。目前除每日 150 个赠送积分外,还新增积分购买选项,可操作固定种子、步数、运动幅度,交互也很有意思,在生成过程中会有案例标注。 此外,还有几个视频 AIGC 工具:Opusclip 可将长视频剪成短视频,Raskai 能将短视频素材直接翻译至多语种,invideoAI 输入想法后可自动生成脚本和分镜描述进而生成视频再人工二编合成长视频,descript 可对屏幕/播客录制并以 PPT 方式做视频,veed.io 能自动翻译自动字幕,clipchamp 是微软的 AI 版剪映,typeframes 类似 invideoAI 但内容呈现文本主体比重更多,google vids 是一款相关工具。Sora 是 OpenAI 发布的超强视频生成 AI,能通过处理各种视觉数据生成视频,使用视频压缩网络和空间时间补丁统一不同来源数据,并借助文本条件化的 Diffusion 模型生成与文本提示匹配的视觉作品。
2024-12-17