Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

可以不学sd而是直接学comfyui

Answer

学习 ComfyUI 而不先学习 SD 是可行的。ComfyUI 具有一些独特的优势,例如更接近 SD 的底层工作原理,能够实现自动化工作流以消灭重复性工作,作为强大的可视化后端工具还能实现 SD 之外的功能,如调用 API 等,并且可根据定制需求开发节点或模块。

比如,有人基于 ComfyUI 中的ComfyI2I创建了工作流,不仅能用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。

在电脑硬件方面,使用 ComfyUI 时,系统要求 Windows7 以上,显卡要求 NVDIA 独立显卡且显存至少 4G 起步,硬盘需留有至少 100G 空间(包括模型)。但 mac 系统、AMD 显卡、低显卡的情况也能安装使用,只是功能不全、出错率偏高,严重影响使用体验,建议升级设备或采用云服务器。

Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI自动生成抠图素材

我为什么学习使用ComfyUI:更接近SD的底层工作原理,在更靠近一朵鲜花的地方,才能闻到它的芳香自动化工作流(我也用webui,虽然很好,但我觉得ComfyUI更符合AI的精神,即消灭重复性工作)作为一个强大的可视化后端工具,可以实现SD之外的功能,如调用api及本文所讲的内容等可根据定制需求开发节点或模块Hi,大家好,我是金属文。我制作这个工作流的动机是:我的工作室经常需要一些抠图素材,用做海报、推文、短视频等用途传统的搜集抠图素材途径无非是网站下载、付费购买、自己PS。要么花钱,要么花时间,还不能根据自己的需求定制素材近期在github上看到一个名为[ComfyI2I](https://github.com/ManglerFTW/ComfyI2I)的项目,其中包含了丰富的蒙版处理节点于是我基于[ComfyI2I](https://github.com/ManglerFTW/ComfyI2I)创建了这个ComfyUI工作流,不仅可以用作绿幕素材的抠图,还可以自动生成定制需求的抠图素材,全程只需要几秒,太香了!先来看下效果:下面我将分享创建整个工作流的思路以及详细步骤讲解话不多说,开始干货教程

学社精华

今日日报🌟今日关键词:Memphis style孟菲斯风格🎨以大胆几何图案、鲜艳色彩、挑战传统设计规则闻名🏠影响领域:家具、纺织品、陶瓷、平面设计、建筑等🌈特点:1⃣强烈色彩对比:鲜艳、对比强烈色彩组合2⃣几何图案:大量不规则、重叠几何图形3⃣抽象装饰性:强调视觉享受,非功能目的4⃣材料质感混合:玻璃、金属、塑料、木材等5⃣反传统功能主义:强调情感表达,非单纯实用💡建议:结合插画或简笔画,niji出图效果更佳🧩AI绘画技巧1⃣像乐高一样,多组合现有关键词💡顺序代表权重,重点表现的放前面2⃣使用"/blend"指令,丢两张形象背景相似图比直接刷图效率更高,形象保持更好3⃣尝试加入刺绣风格关键词:🪡苏绣Su embroidery🧵湘绣Hunan embroidery🎀粤绣Cantonese embroidery🧶蜀绣Sichuan embroidery🛠AI绘画工具——SD的讨论☁https://www.esheep.com/workflow云端,无需考虑配置👨💻ComfyUI:适合理科生、学计算机的Nenly的SD教程视频推荐📺https://www.bilibili.com/video/BV1D7421N7xN/来来认为:📝MJ:提示词最核心,占比100%🎨SD:提示词30%,模型30%,参数+插件40%🌀麦橘循环:避免审美疲劳,像飞轮般不停创作

1、环境安装、ComfyUI本体安装 副本

本文主要介绍StableDiffusion的另一种UIComfyUI的实际操作方法,以及如何在ComfyUI中使用SDXL模型,希望通过本文能够降低大家对StableDiffusion ComfyUI的学习成本,更快速的体验到AIGC图像生成的魅力。[heading1]一、电脑硬件要求[content]1.系统:Windows7以上(就不要为难XP老师傅了)。2.显卡要求:NVDIA独立显卡且显存至少4G起步。3.硬盘留有足够的空间,最低100G起步(包括模型)。注:mac系统,AMD显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。

Others are asking
ComfyUI教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了从新手入门到精通各个阶段的系列视频教程,可在查看。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中关于 KSampler 的部分: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置为 1。 内容由 AI 大模型生成,请仔细甄别。
2025-02-07
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势:对显存要求相对较低,启动速度快,出图速度快;具有更高的生成自由度;可以和 webui 共享环境和模型;可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在;生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-02-07
comfyui 官网
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,您可以把它想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候也能清晰的发现错误出在哪一步。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势在于: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 ComfyUI 的官方链接为:https://github.com/comfyanonymous/ComfyUI 。 关于 ComfyUI 的学习资料,有以下几个网站提供相关教程: 1. ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。网站为:https://www.comfyuidoc.com/zh/ 。 2. 优设网:提供了详细的入门教程,适合初学者。教程地址是:https://www.uisdc.com/comfyui3 。 3. 知乎:有用户分享了部署教程和使用说明,适合有一定基础并希望进一步了解的用户。地址:https://zhuanlan.zhihu.com/p/662041596 。 4. Bilibili:提供了一系列从新手入门到精通的视频教程。地址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 此外,在知乎的“深入浅出完整解析 Stable Diffusion(SD)核心基础知识”中,也有关于零基础使用 ComfyUI 搭建 Stable Diffusion 推理流的内容。
2025-01-23
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境:依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-01-23
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-01-23
如何学习comfyui
以下是一些学习 ComfyUI 的途径和资源: 1. 官方文档:ComfyUI 官方文档提供了使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了其特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 此外,还有 ComfyUI 共学快闪的飞书学习群,其中包含了众多如 Stuart 风格迁移、红泥小火炉基础课程等各类课程和讲解,如郑个小目标针对于某个插件的深入讲解、波风若川报错解决等。 另外,有人因为以下原因学习使用 ComfyUI:更接近 SD 的底层工作原理;自动化工作流,消灭重复性工作;作为强大的可视化后端工具,可实现 SD 之外的功能,还能根据定制需求开发节点或模块。例如,有人为了工作室获取抠图素材的需求,基于创建了工作流,不仅能用于绿幕素材抠图,还能自动生成定制需求的抠图素材,全程仅需几秒。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-23
除了SD,有哪些方便快捷的网站可以用的?
以下是一些方便快捷的 AI 相关网站: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/ 3. 哩布哩布 AI:其在线 SD 界面和本地部署界面区别不大,每天有一百次生成次数,且已集成最新的 SDXL 模型。 4. Clipdrop:https://clipdrop.co/stablediffusion ,和 midjourney 的使用方法相似,每天免费 400 张图片,需排队,出四张图约二三十秒。 此外,还有一些 AI 视频相关的网站: 1. SVD:https://stablevideo.com/ ,对于景观更好用。 2. Morph Studio:https://app.morphstudio.com/ ,还在内测。 3. Heygen:https://www.heygen.com/ ,数字人/对口型。 4. Kaiber:https://kaiber.ai/ 5. Moonvalley:https://moonvalley.ai/ 6. Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 7. 美图旗下:https://www.miraclevision.com/ 8. Neverends:https://neverends.life/create ,操作傻瓜。 9. Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 10. Krea:https://www.krea.ai/ 11. Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 12. Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 13. invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 14. descript:https://www.descript.com/?ref=feizhuke.com 15. veed.io:https://www.veed.io/ ,自动翻译自动字幕。 16. clipchamp:https://app.clipchamp.com/ 17. typeframes:https://www.revid.ai/?ref=aibot.cn
2025-02-04
SD曝显存
在使用 SD 进行超大尺寸绘制时,直接调分辨率绘制超高分辨率的图片(如 10000x768 的清明上河图)通常会爆显存。正常尺寸设置最高到 2048,无法直接设置 10000 的宽度。解决方法是先在 PS 中设置所需尺寸的画布并保存为 jpg 图片,然后将图片放入 ControlNet 中,点击右下角箭头将尺寸信息发送到生成设置,填入正反向提示词,并启用 Tiled Diffusion 插件(方案选择 Mixture of Diffusers)防止接缝产生。 在 ComfyUI 中,模型的安装部署方面,FLUX 模型建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量。clip 模型(t5xxl_fp16.safetensors 和 clip_l.safetensors)放在 ComfyUI/models/clip/文件夹,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率。Vae 模型下载后放入 ComfyUI/models/vae 文件夹。 在生成过程中,ComfyUI 处理 SDXL 模型比 webUI 更有效率。例如,ComfyUI 生成过程中显存占用率为 7 9GB,每次生成耗时 13 15s;webUI 显存占用率为 8 11GB,每次生成耗时 25s。此外,还可对 SDXL 进行风格控制,添加【新建节点】【实用工具】【SDXL Promot Styler Advanced】节点,通过右键增加输入点将文本提示词赋予 base 和 refiner 并切换风格。
2025-02-02
sd 的imagebrowser在哪下载
Stable Diffusion 的 ImageBrowser 插件可以通过以下方式下载: 因为该插件还没有收录到官方的插件列表当中,您可以到这个网址去下载:https://github.com/hnmr293/sdwebuicutoff ,或者是去作者的云盘链接下载。安装之后重启,就可以看到这个插件。 另外,大多数的模型都是在 Civitai(C 站)这个网站里面下载,网址为:https://civitai.com/ 。使用 C 站时需要科学上网,点击右上角的筛选按钮,在框框里面找到自己需要的模型类型。下载的模型保存位置如下: 大模型:存放在 SD 根目录的【……\\models\\Stablediffusion】文件夹。 Lora:存放在根目录下的相应文件夹。 VAE:存放在根目录的【……\\models\\VAE】文件夹。 如果不会科学上网,也可以去启动器的界面直接下载模型。下载的 Embedding 可以在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2025-01-23
SD模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将文本输入到 SD 模型,经过一定迭代次数生成符合描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示重绘输入图片使其更符合描述,如在沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本编码生成 Text Embeddings 特征矩阵,用于控制图像生成。 目前 SD 模型使用的是中的 Text Encoder 模型,其只包含 Transformer 结构,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小为 123M,输出 Text Embeddings 的维度为 77x768。 以下是相关资源获取方式: SD 模型权重:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 模型”,可获得包含多种模型权重的资源链接。 SD 保姆级训练资源:关注 Rocky 的公众号 WeThinkIn,后台回复“SDTrain”,可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE、UNet 和 CLIP 三大模型的可视化网络结构图:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 网络结构”,即可获得网络结构图资源链接。
2025-01-22
SD如何操作
以下是关于 SD 操作的相关内容: Stable Diffusion 中,Checkpoint 是最重要的模型,也是主模型,几乎所有操作都依托于它。主模型基于 Stable Diffusion 模型训练而来,有时被称为 Stable Diffusion 模型。主模型后缀一般为.ckpt 或者.safetensors,体积较大,一般在 2G 7G 之间。要管理模型,需进入 WebUl 目录下的 models/Stable diffusion 目录。 画出商用级别的高清大图操作简单,调整好放大倍率即可直接放大。其原理和其他图片放大原理相同,并非重绘,只是变清晰,缺失细节不会补全。 制作中文文字的思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果。 可输出 C4D 模型,自由贴图材质效果。 若希望有景深效果,可打开 depth。 打开高清修复,分辨率 1024 以上,步数 29 60。
2025-01-09
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06
能直接输出图片的AI网站
以下是一些能直接输出图片的 AI 网站: 1. Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果超级好。 5. 无界 AI:一款可以在线 AI 生成图片的网站(类似 SD Online 一键出图版),网址为 https://www.wujieai.cc/ (新用户扫码注册可领取积分)。 此外,还有用于鉴别图片是否为 AI 生成的网站,如 ILLUMINARTY(https://app.illuminarty.ai/)。但需注意,AI 鉴别仍存在一些局限性。
2025-02-07
如何通过文字就直接转化成视频
以下是使用 Morphstudio 将文字直接转化为视频的方法: 1. MorphVideoBot 的使用: 命令:/video 示例:/video Hello World!ar 16:9motion 5camera zoom infps 30s 5 2. MorphBot 的使用: 命令:/animate 示例:/animateA cat is walkingar 16:9motion 5camera pan upfps 30 3. 参数说明: ar(仅 MorphVideoBot):设置视频的宽高比,例如 16:9、4:3、1:1、3:4、9:16 等。 motion:调整视频中运动的强度。值越低,运动越微妙;值越高,运动越夸张。 camera:控制相机运动,包括缩放(camera zoom in/out)、平移(camera pan up/down/left/right)、旋转(camera rotate clockwise/counterclockwise 或 camera rotate cw/ccw)和静态(camera static)。 fps:设置视频的帧率,默认是每秒 24 帧。 s(仅 MorphVideoBot):设置视频的时长(秒)。 提示:更详细和描述性的提示可能会使生成的视频效果更好。您可以自由尝试不同的设置以获得期望的结果。
2025-02-07
请推荐AI智能体,要求是通过通用语言大模型能直接输出思维导图的
以下为为您推荐的能通过通用语言大模型直接输出思维导图的 AI 智能体: 1. 多智能体 AI 搜索引擎: 第一步,快速搜索补充参考信息,使用工具 API WebSearchPro。 第二步,用模型规划和分解子任务,通过 GLM40520 的模型分析。 第三步,用搜索智能体完成子任务,智能体 API 的调用方式可参考相关文档。智能体 ID 为 659e54b1b8006379b4b2abd6,是连接全网内容,精准搜索,快速分析并总结的智能助手。 第四步,总结子任务生成思维导图,智能体 API 的调用方式可参考相关文档。智能体 ID 为 664e0cade018d633146de0d2,能够告别整理烦恼,将任何复杂概念秒变脑图。 2. AI 智能体:企业自动化的新架构Menlo Ventures:未来的完全自主智能体可能拥有所有四个构建块,但当前的 LLM 应用程序和智能体尚未达到此水平。Menlo 确定了三种不同主要用例和应用程序进程控制自由度的智能体类型,包括决策智能体、轨道智能体和通用人工智能体。 3. AI Share Card 插件:在开发过程中,将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能。选用的是 GLM4flash,具有较长的上下文窗口、响应速度快、并发支持高、免费或低价等优点。
2025-01-20
通过通用语言大模型能直接输出思维导图的AI智能体有那些推荐
以下是为您推荐的一些通过通用语言大模型能直接输出思维导图的 AI 智能体: 1. 豆包:输入简单提示词就能创建个人 AI 智能体。 2. GLM4flash:在处理纯文本总结任务时,仅需 13B 或更小参数的模型,加上精调的提示词,就能产生很好的结果。具有较长的上下文窗口、响应速度快、并发支持高、免费或价格低等优点。 需要注意的是,AI 领域发展迅速,新的产品和服务不断涌现,您可以持续关注相关领域的最新动态以获取更多更好的选择。
2025-01-20
可以直接用文章设置好脚本,生成视频的AI工具
以下是一些可以根据文章设置好脚本生成视频的 AI 工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频所需要素并生成素材和文本框架,能快速实现从文字到画面的转化。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 3. Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像和脚本生成器,帮助用户从图像制作视频并规划内容。 5. Runway:能将文本转化为风格化视频内容,适用于多种场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务。 此外,还有以下文字生成视频的 AI 产品: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:可在 Stable Diffusion 图片基础上直接生成视频。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 如果您想用 AI 把小说做成视频,可参考以下制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)提取关键场景、角色和情节。 2. 生成角色与场景描述:用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 3. 图像生成:借助 AI 图像生成工具创建角色和场景图像。 4. 视频脚本制作:将关键点和生成的图像组合成脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)转换语音,添加背景和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)合成。 7. 后期处理:剪辑、添加特效和转场以提高质量。 8. 审阅与调整:观看视频并根据需要调整。 9. 输出与分享:完成编辑后输出并分享。 请注意,具体操作步骤和所需工具可能因项目需求和个人偏好不同而有所差异,AI 工具的可用性和功能也可能变化,建议访问工具网址获取最新信息和指南。
2025-01-14
长文本生成对应场景的视频,有相关AI软件直接制作完成吗
目前有相关的 AI 软件可以将长文本生成对应场景的视频,以下是具体的制作流程和相关工具: 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 相关工具: 1. Pika:擅长动画制作,并支持视频编辑。 网址:https://pika.art/waitlist 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 6. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。 网址:https://github.com/StabilityAI 7. Midjourney(MJ):适用于创建小说中的场景和角色图像。 网址:https://www.midjourney.com 8. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。 网址:https://www.adobe.com/products/firefly.html 9. Clipfly:一站式 AI 视频生成和剪辑平台。 网址:https://www.aihub.cn/tools/video/clipfly/ 10. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。 网址:https://www.veed.io/zhCN/tools/aivideo 11. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。 网址:https://tiger.easyartx.com/landing 12. 故事 AI 绘图:小说转视频的 AI 工具。 网址:https://www.aihub.cn/tools/video/gushiai/ 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38
2025-01-14