Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Sd文生图的专业术语有哪些

Answer

以下是一些关于 SD 文生图的专业术语:

  1. 内容型提示词:主要用于描述想要的画面,如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”。
  2. 标准化提示词:例如“(masterpiece:1.2),best quality,masterpiece,highres,original,extremelydetailed wallpaper,perfect,lighting,(extremely detailed CG:1.2),drawing,paintbrush”。
  3. 权重:通过括号和特定数值来增加提示词的权重,权重越高在画面中体现越充分,提示词的先后顺序也会影响权重。
  4. 反向提示词:告诉 AI 不要的内容,如“NSFw,(最差质量:2),(低质量:2),(正常质量:2),(低质量:2),((单色)),((灰度)),皮肤斑点,痤疮,皮肤瑕疵,老年斑,(丑陋:1.331),(重复:1.331),(病态:1.21),(残缺:1.21),(变形:1.331),变异的手,(画得不好的手:1.5),模糊,(解剖不良:1.21),(比例不良:1.331),多余的四肢,(毁容:1.331),(缺胳膊:1.331),(多余的腿:1.331),(融合的手指:1.61051),(过多的手指:1.61051),(不清晰的眼睛:1.331),低质量,坏的手,缺手指,多余的手指,受伤的手,缺失的手指,(((多余的胳膊和腿))”。
  5. 采样迭代步数:指 AI 绘画去噪的次数,步数越高绘画越清晰,但绘画速度越慢,通常数值控制在 20 - 40 之间较好。
  6. 采样方法:AI 生成图像时的特定算法,常用的有“Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM”。
  7. 比例:尺寸并非越大越好,模型练图通常按 512x512 的框架绘制,高宽比尽量在这个数值附近。高清修复可放大图像倍率,高宽比主要控制画面比例。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】文生图怎么写提示词

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-01 20:00原文网址:https://mp.weixin.qq.com/s/kwNfc9NCaKJRy30wHI95UgStable Diffusion的生成方式主要分为文生图和图生图两种:文生图是仅通过正反向词汇描述来发送指令;图生图除了可以添加文字以外,还可以给AI参考图进行模仿,也就是我们常说的“垫图”。接下去就是对你想要的图形进行文本描述,文本描述上又分为两类:内容型提示词和标准化提示词。内容型提示词主要用于描述你想要的画面,我们选择anythingV5这个专门用于二次元绘画的大模型,然后输入以下提示词:1个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面。(使用翻译软件翻译成英文)采样迭代步数是指AI绘画去噪的次数,步数越高绘画越清晰,但是绘画速度也会越慢,通常数值控制在20-40之间最好。采样方法是指AI生成图像时候的某种特定算法,我们不用全部了解,一般常用的为:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM。有的模型会有指定的算法,搭配起来更好用。将比例设置为800:400,注意这里的尺寸并不是越大越好,因为模型的练图基本上都是按照512x512的框架去画,所以我们的高宽比尽量都在这个数值附近。太大的数值比如1920x1080,会使AI做出很奇怪的构图。那你就会说,我就想要很高清的图怎么办,其实Stable Diffusion也提供了图片放大的功能,我们可以同时点选这个高清修复来放大图像倍率,而高宽比我们只要记住这里主要是控制一个画面比例就可以了。

【SD】文生图怎么写提示词

英文为:(masterpiece:1.2),best quality,masterpiece,highres,original,extremelydetailed wallpaper,perfect,lighting,(extremely detailed CG:1.2),drawing,paintbrush在这组提示词中,括号和:1.2,都是用来增加权重的,权重越高在画面中体现越充分,同样提示词的先后顺序也会影响权重。接下来我们再增加一组反向提示词,可以告诉AI我们不要什么,在这里也是一组标准化提示词:NSFw,(最差质量:2),(低质量:2),(正常质量:2),(低质量:2),((单色)),((灰度)),皮肤斑点,痤疮,皮肤瑕疵,老年斑,(丑陋:1.331),(重复:1.331),(病态:1.21),(残缺:1.21),(变形:1.331),变异的手,(画得不好的手:1.5),模糊,(解剖不良:1.21),(比例不良:1.331),多余的四肢,(毁容:1.331),(缺胳膊:1.331),(多余的腿:1.331),(融合的手指:1.61051),(过多的手指:1.61051),(不清晰的眼睛:1.331),低质量,坏的手,缺手指,多余的手指,受伤的手,缺失的手指,(((多余的胳膊和腿))英文为:NSFw,(worst quality:2),(low quality:2),(normal quality:2),lowres,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot,(ugly:1.331),(duplicate:1.331),(morbid:1.21),(mutilated:1.21),(tranny:1.331),mutated hands,(poorly drawn hands:1.5),blurry,(bad anatomy:1.21),(badproportions:1.331),extra limbs,(disfigured:1.331),(missingarms:1.331),(extra legs:1.331),(fused fingers:1.61051),(toomany finger

【SD】角色设计的福音!绘制一致性多角度头像

设置文生图提示词:大模型:majicmixRealistic_v6.safetensors正向提示词:(a character sheet of a woman from different angles with a grey background:1.4),auburn hair,eyes open,cinematic lighting,Hyperrealism,depth of field,photography,ultra highres,photorealistic,8k,hyperrealism,studio lighting,photography,负向提示词:EasyNegative,canvasframe,canvas frame,eyes shut,wink,blurry,hands,closed eyes,(easynegative),((((ugly)))),(((duplicate))),((morbid)),((mutilated)),out of frame,extra fingers,mutated hands,((poorly drawn hands)),((poorly drawn face)),((bad art)),blurry,(((mutation))),(((deformed))),blurry,((bad anatomy)),(((bad proportions))),((extra limbs)),cloned face,(((disfigured))),gross proportions,(malformed limbs),((missing arms)),((missing legs)),((floating limbs)),((disconnected limbs)),((malformed hands)),((missing fingers)),worst quality,((disappearing arms)),((disappearing legs)),(((extra arms))),(((extra legs))),(fused fingers),(too many fingers),(((long neck))),canvas frame,((worst quality)),((low quality)),lowres,sig,signature,watermark,username,bad,immature,cartoon,anime,3d,painting,b&w,设置一下参数:迭代步数:50采样方法:DPM++2M Karras尺寸:1328×800px出图!15个不同角度的人物图片,大概看下来基本就是同一个人,没毛病。

Others are asking
DeepSeek可以文生图吗
DeepSeek 可以文生图。 DeepSeek 深夜发布的大一统模型 JanusPro 将图像理解和生成统一在一个模型中。全新的 Emu3 仅通过预测下一个 token 这一建模范式进行训练,可完成文本、图像、视频三种模态数据的理解和生成。Emu3 支持高质量文生图,支持灵活的分辨率和风格。 JanusPro7B 远好于 Janus,更稳定,提示词更短。JanusPro 是一个统一理解和生成多模态语言模型(MLLM),它将多模态理解和生成的视觉编码解耦。 此外,DeepSeek 开源的多模态模型 JanusPro 寓意古罗马双面神雅努斯,既能进行视觉理解,也能生成图像。与 DALLE 3 相比,JanusPro 在参数上领先,并具备图像识别、地标识别等多种能力。该模型通过更优化的训练策略、更海量的数据和更大规模的参数(70 亿)实现了更强的智能表现。
2025-02-05
文生视频的 AI 能力
以下是关于文字生成视频的 AI 能力的相关信息: 文字生成视频的 AI 产品有: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:可在 Stable Diffusion 图片基础上直接生成视频,是 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 (内容由 AI 大模型生成,请仔细甄别) 对于视频模型的评估,可从以下方面全面评估 AI 视频生成模型的各种能力: |测试类型|提示词(Prompt)| ||| |生成质量|“A highresolution 4K video of a sunset over the ocean with smooth transitions.”| |生成速度|“A short 10second clip of a running dog in a park.”| |一致性|“A person walking from left to right across the screen with consistent motion and background.”| |多样性|“A fantasy world with dragons flying in the sky and wizards casting spells.”| |可控性|“Generate a video of a beach scene with a setting sun and seagulls flying,with the ability to change the weather from sunny to cloudy.”| |音频生成|“A video of a thunderstorm with synchronized sound effects of thunder and rain.”| |界面友好度|“Test the user interface by generating a video of a mountain landscape with easytouse controls for adjusting the time of day and weather conditions.”| |可定制性|“Create a video of a city street with customizable options for the number of people,types of vehicles,and time of day.”| |计算资源|“Generate a 30second video of a busy market scene and measure the CPU,GPU,and memory usage.”| |运行成本|“Produce a 2minute educational video on the water cycle,evaluating the cost efficiency for longer videos.”| |错误处理|“Generate a video with an incomplete prompt to test how the model handles missing information.”| OpenAI 发布的首款文生视频模型 Sora 具有强大的能力,不仅能根据文字指令创造逼真且充满想象力的场景,还能生成长达 1 分钟的超长视频,且一镜到底。在视频中的女主角、背景人物等方面都达到了惊人的一致性,各种镜头随意切换,人物保持了神一般的稳定性。相比之下,Runway Gen 2、Pika 等 AI 视频工具在几秒内的连贯性方面还有待突破。
2025-02-05
文生图
以下是关于文生图的相关知识: 1. 简明操作流程: 定主题:明确生成图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora,以控制图片效果和质量。 ControlNet:可控制图片中特定的图像,如人物姿态、特定文字等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写要避免产生的内容,单词和短语组合并用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:根据采样器特征,选 DPM++2M Karras 时在 30 40 之间。 尺寸:根据喜好和需求选择。 2. 提示词: Stable Diffusion 的生成方式主要分为文生图和图生图两种,文生图仅通过正反向词汇描述发送指令。 文本描述分为内容型提示词和标准化提示词,内容型提示词用于描述想要的画面,如“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”。 采样迭代步数通常控制在 20 40 之间,采样方法常用的有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++SDE Karras、DDIM 等,有的模型有指定算法,搭配更好用。 比例设置为 800:400,尺寸并非越大越好,模型练图基本按 512x512 框架,可点选高清修复放大图像倍率。 3. 文生图工具: DALL·E:OpenAI 推出,可根据文本描述生成逼真图片。 StableDiffusion:开源,能生成高质量图片,支持多种模型和算法。 MidJourney:图像生成效果好,界面设计用户友好,在创意设计人群中流行。 在 WaytoAGI 网站(https://www.waytoagi.com/category/104 )可查看更多文生图工具。
2025-02-02
文生图如何提高字在图中的准确率
要提高文生图中字在图中的准确率,可以从以下几个方面入手: 1. 数据准备: 对于中文文字的生成,Kolors从两个方面准备数据。一是选择 50000 个最常用的汉字,机造生成了一个千万级的中文文字图文对数据集,但机造数据真实性不足。二是使用 OCR 和 MLLM 生成海报、场景文字等真实中文文字数据集,大概有百万量级。 Hugging 和英特尔发布了提高文生图模型空间一致性的方案,包括一个详细标注了空间关系的 600 万张图片的数据集,模型和数据集都会开源。 2. 模型能力: DALLE 3 和 SD3 已经有了很强的英文文字生成能力,但目前还未有模型具有中文文字的生成能力。中文文字的生成存在困难,一是中文汉字的集合大且纹理结构复杂,二是缺少中文文字的图文对数据。 作者观察到,使用机造数据结合高质量真实数据后,中文文字生成能力的真实性大大提升,而且即使是真实数据中不存在的汉字的真实性也得到了提升。 3. 训练方法: 在包含大量物体的图像上进行训练,可以显著提高图像的空间一致性。 此外,在写文生图的提示词时,通常的描述逻辑是这样的:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,能更精确地控制绘图。对于新手而言,还有一些功能型辅助网站来帮我们书写提示词,比如:http://www.atoolbox.net/ 、https://ai.dawnmark.cn/ 。还可以去 C 站(https://civitai.com/)里面抄作业。但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会截然不同。
2025-01-29
文生视频哪个网站最好,免费的
以下是一些免费的文生视频网站推荐: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。网址:https://pika.art/ https://discord.gg/pika 。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 4. ETNA(国内):https://etna.7volcanoes.com/ 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8~15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,支持中文,时空理解。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。 内容由 AI 大模型生成,请仔细甄别。
2025-01-26
现在有哪些开源的文生图大模型?
以下是一些开源的文生图大模型: Kolors: 2024 年 7 月 6 日开源,基于数十亿图文对进行训练,支持 256 的上下文 token 数,支持中英双语。技术细节参考 。 已支持 Diffusers,使用方式可参考 。 支持了 。 支持了 。 关于 Kolors 模型的教学视频: ,作者:BlueBomm 。 ,作者:AI 算法工程师 01 。 ,作者:峰上智行 。 ,作者:设计师学 Ai 。 Kolors 模型能力总结:改进全面,有更强的中文文本编码器、机造的高质量文本描述、人标的高质量图片、强大的中文渲染能力,以及巧妙的 noise schedule 解决高分辨率图加噪不彻底的问题。实测效果很不错,在看到 Kling 视频生成的强大表现,能体现快手的技术实力。
2025-01-24
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF,0编程基础应该怎么做呢
对于您这种没有编程基础但想要制作针对电子元器件行业的 AI 工具来实现中文 PDF 上传并下载翻译好的 PDF 的需求,以下是一些建议: 首先,您需要学习一些基本的 AI 概念和技术知识,了解自然语言处理(NLP)的基本原理。 其次,可以考虑使用现有的无代码或低代码 AI 开发平台。这些平台通常具有可视化的界面和易于操作的工具,能够帮助您在不编写代码的情况下构建简单的 AI 应用。 然后,针对您的专业术语翻译需求,需要对电子元器件行业的术语进行系统整理和分类,建立一个清晰的术语库。 同时,确定固定描述语句的翻译规则和方法,并将其转化为可在 AI 工具中应用的逻辑。 在实施过程中,要不断测试和优化您的工具,以确保翻译的准确性和质量。 总之,虽然没有编程基础会增加一定的难度,但通过合理利用现有资源和持续学习,您是有可能实现这个目标的。
2025-01-04
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF
目前针对您想要针对电子元器件行业制作一个能上传中文 PDF 并下载翻译好的 PDF 的 AI 工具的需求,暂时没有相关的现成内容和方法。但您可以考虑以下步骤来实现这一目标: 1. 数据准备:收集和整理电子元器件行业的专业术语、固定描述语句以及对应的翻译,构建一个丰富准确的知识库。 2. 选择合适的技术:例如自然语言处理技术和机器翻译算法,以实现对中文 PDF 的翻译。 3. 开发工具界面:设计一个用户友好的界面,方便用户上传中文 PDF 和下载翻译后的 PDF。 4. 测试和优化:对工具进行充分的测试,根据测试结果不断优化翻译的准确性和工具的性能。 这是一个较为复杂的项目,需要一定的技术和资源投入,但如果成功实现,将为电子元器件行业带来很大的便利。
2025-01-04
除了SD,有哪些方便快捷的网站可以用的?
以下是一些方便快捷的 AI 相关网站: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/ 3. 哩布哩布 AI:其在线 SD 界面和本地部署界面区别不大,每天有一百次生成次数,且已集成最新的 SDXL 模型。 4. Clipdrop:https://clipdrop.co/stablediffusion ,和 midjourney 的使用方法相似,每天免费 400 张图片,需排队,出四张图约二三十秒。 此外,还有一些 AI 视频相关的网站: 1. SVD:https://stablevideo.com/ ,对于景观更好用。 2. Morph Studio:https://app.morphstudio.com/ ,还在内测。 3. Heygen:https://www.heygen.com/ ,数字人/对口型。 4. Kaiber:https://kaiber.ai/ 5. Moonvalley:https://moonvalley.ai/ 6. Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 7. 美图旗下:https://www.miraclevision.com/ 8. Neverends:https://neverends.life/create ,操作傻瓜。 9. Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 10. Krea:https://www.krea.ai/ 11. Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 12. Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 13. invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 14. descript:https://www.descript.com/?ref=feizhuke.com 15. veed.io:https://www.veed.io/ ,自动翻译自动字幕。 16. clipchamp:https://app.clipchamp.com/ 17. typeframes:https://www.revid.ai/?ref=aibot.cn
2025-02-04
SD曝显存
在使用 SD 进行超大尺寸绘制时,直接调分辨率绘制超高分辨率的图片(如 10000x768 的清明上河图)通常会爆显存。正常尺寸设置最高到 2048,无法直接设置 10000 的宽度。解决方法是先在 PS 中设置所需尺寸的画布并保存为 jpg 图片,然后将图片放入 ControlNet 中,点击右下角箭头将尺寸信息发送到生成设置,填入正反向提示词,并启用 Tiled Diffusion 插件(方案选择 Mixture of Diffusers)防止接缝产生。 在 ComfyUI 中,模型的安装部署方面,FLUX 模型建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量。clip 模型(t5xxl_fp16.safetensors 和 clip_l.safetensors)放在 ComfyUI/models/clip/文件夹,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率。Vae 模型下载后放入 ComfyUI/models/vae 文件夹。 在生成过程中,ComfyUI 处理 SDXL 模型比 webUI 更有效率。例如,ComfyUI 生成过程中显存占用率为 7 9GB,每次生成耗时 13 15s;webUI 显存占用率为 8 11GB,每次生成耗时 25s。此外,还可对 SDXL 进行风格控制,添加【新建节点】【实用工具】【SDXL Promot Styler Advanced】节点,通过右键增加输入点将文本提示词赋予 base 和 refiner 并切换风格。
2025-02-02
sd 的imagebrowser在哪下载
Stable Diffusion 的 ImageBrowser 插件可以通过以下方式下载: 因为该插件还没有收录到官方的插件列表当中,您可以到这个网址去下载:https://github.com/hnmr293/sdwebuicutoff ,或者是去作者的云盘链接下载。安装之后重启,就可以看到这个插件。 另外,大多数的模型都是在 Civitai(C 站)这个网站里面下载,网址为:https://civitai.com/ 。使用 C 站时需要科学上网,点击右上角的筛选按钮,在框框里面找到自己需要的模型类型。下载的模型保存位置如下: 大模型:存放在 SD 根目录的【……\\models\\Stablediffusion】文件夹。 Lora:存放在根目录下的相应文件夹。 VAE:存放在根目录的【……\\models\\VAE】文件夹。 如果不会科学上网,也可以去启动器的界面直接下载模型。下载的 Embedding 可以在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2025-01-23
SD模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将文本输入到 SD 模型,经过一定迭代次数生成符合描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示重绘输入图片使其更符合描述,如在沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本编码生成 Text Embeddings 特征矩阵,用于控制图像生成。 目前 SD 模型使用的是中的 Text Encoder 模型,其只包含 Transformer 结构,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小为 123M,输出 Text Embeddings 的维度为 77x768。 以下是相关资源获取方式: SD 模型权重:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 模型”,可获得包含多种模型权重的资源链接。 SD 保姆级训练资源:关注 Rocky 的公众号 WeThinkIn,后台回复“SDTrain”,可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE、UNet 和 CLIP 三大模型的可视化网络结构图:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 网络结构”,即可获得网络结构图资源链接。
2025-01-22
SD如何操作
以下是关于 SD 操作的相关内容: Stable Diffusion 中,Checkpoint 是最重要的模型,也是主模型,几乎所有操作都依托于它。主模型基于 Stable Diffusion 模型训练而来,有时被称为 Stable Diffusion 模型。主模型后缀一般为.ckpt 或者.safetensors,体积较大,一般在 2G 7G 之间。要管理模型,需进入 WebUl 目录下的 models/Stable diffusion 目录。 画出商用级别的高清大图操作简单,调整好放大倍率即可直接放大。其原理和其他图片放大原理相同,并非重绘,只是变清晰,缺失细节不会补全。 制作中文文字的思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果。 可输出 C4D 模型,自由贴图材质效果。 若希望有景深效果,可打开 depth。 打开高清修复,分辨率 1024 以上,步数 29 60。
2025-01-09
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06