Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui 官网

Answer

ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,您可以把它想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。

其优势包括:

  1. 对显存要求相对较低,启动速度快,出图速度快。
  2. 具有更高的生成自由度。
  3. 可以和 webui 共享环境和模型。
  4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候也能清晰的发现错误出在哪一步。
  5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。

劣势在于:

  1. 操作门槛高,需要有清晰的逻辑。
  2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。

ComfyUI 的官方链接为:https://github.com/comfyanonymous/ComfyUI 。

关于 ComfyUI 的学习资料,有以下几个网站提供相关教程:

  1. ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。网站为:https://www.comfyuidoc.com/zh/ 。
  2. 优设网:提供了详细的入门教程,适合初学者。教程地址是:https://www.uisdc.com/comfyui-3 。
  3. 知乎:有用户分享了部署教程和使用说明,适合有一定基础并希望进一步了解的用户。地址:https://zhuanlan.zhihu.com/p/662041596 。
  4. Bilibili:提供了一系列从新手入门到精通的视频教程。地址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。

此外,在知乎的“深入浅出完整解析 Stable Diffusion(SD)核心基础知识”中,也有关于零基础使用 ComfyUI 搭建 Stable Diffusion 推理流的内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:ComfyUI 是什么?

ComfyUI是一个基于节点流程式的stable diffusion AI绘图工具WebUI,你可以把它想象成集成了stable diffusion功能的substance designer,通过将stable diffusion的流程拆分成节点,实现了更加精准的工作流定制和完善的可复现性。[heading2]优劣势[content]优势:1.对显存要求相对较低,启动速度快,出图速度快;2.具有更高的生成自由度;3.可以和webui共享环境和模型;4.可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候也能清晰的发现错误出在哪一步;5.生成的图片拖进后会还原整个工作流程,模型也会选择好。劣势:1.操作门槛高,需要有清晰的逻辑;2.生态没有webui多(常用的都有),也有一些针对Comfyui开发的有趣插件。[heading2]官方链接[content]从github上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI[heading2]截图示例[heading2]延伸阅读:[content]内容由AI大模型生成,请仔细甄别。

问: 有没有comfy ui相关的学习资料?

是的,根据搜索结果,有几个网站提供了关于ComfyUI的学习教程:1.ComfyUI官方文档:提供了ComfyUI的使用手册和安装指南,适合初学者和有经验的用户。你可以在[ComfyUI官方文档网站](https://www.comfyuidoc.com/zh/)找到相关信息。2.优设网:提供了一篇详细的ComfyUI入门教程,这篇教程适合初学者,详细介绍了ComfyUI的特点、安装方法以及如何使用ComfyUI生成图像等内容。教程地址是[优设网的ComfyUI入门教程](https://www.uisdc.com/comfyui-3)。3.知乎:有用户分享了ComfyUI的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解ComfyUI的用户。可以在[知乎的ComfyUI介绍](https://zhuanlan.zhihu.com/p/662041596)找到相关教程。4.Bilibili:提供了一系列的ComfyUI视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习ComfyUI的使用。可以在[Bilibili的ComfyUI系列教程](https://www.bilibili.com/video/BV14r4y1d7r8/)找到视频教程。这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握ComfyUI的使用。内容由AI大模型生成,请仔细甄别。

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

[ComfyUI](https://link.zhihu.com/?target=https%3A//github.com/comfyanonymous/ComfyUI)是一个基于节点式的Stable Diffusion AI绘画工具。和Stable Diffusion WebUI相比,ComfyUI通过将Stable Diffusion模型生成推理的pipeline拆分成独立的节点,实现了更加精准的工作流定制和清晰的可复现性。目前ComfyUI能够非常成熟的使用Stable Diffusion模型,下面是Rocky使用ComfyUI来加载Stable Diffusion模型并生成图片的完整Pipeline:使用ComfyUI来加载Stable Diffusion模型大家可以看到上图是文生图的工作流,另外大家只需关注Rocky的公众号WeThinkIn,并回复“ComfyUI”,就能获取文生图,图生图,图像Inpainting,ControlNet以及图像超分在内的所有Stable Diffusion经典工作流json文件,大家只需在ComfyUI界面右侧点击Load按钮选择对应的json文件,即可加载对应的工作流,开始愉快的AI绘画之旅。话说回来,下面Rocky将带着大家一步一步使用ComfyUI搭建Stable Diffusion推理流程,从而实现上图所示的生成过程。首先,我们需要安装ComfyUI框架,这一步非常简单,在命令行输入如下代码即可:安装好后,我们可以看到本地的ComfyUI文件夹。ComfyUI框架安装到本地后,我们需要安装其依赖库,我们只需以下操作:

Others are asking
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境:依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-01-23
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-01-23
如何学习comfyui
以下是一些学习 ComfyUI 的途径和资源: 1. 官方文档:ComfyUI 官方文档提供了使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了其特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在找到。 此外,还有 ComfyUI 共学快闪的飞书学习群,其中包含了众多如 Stuart 风格迁移、红泥小火炉基础课程等各类课程和讲解,如郑个小目标针对于某个插件的深入讲解、波风若川报错解决等。 另外,有人因为以下原因学习使用 ComfyUI:更接近 SD 的底层工作原理;自动化工作流,消灭重复性工作;作为强大的可视化后端工具,可实现 SD 之外的功能,还能根据定制需求开发节点或模块。例如,有人为了工作室获取抠图素材的需求,基于创建了工作流,不仅能用于绿幕素材抠图,还能自动生成定制需求的抠图素材,全程仅需几秒。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-23
ComfyUI_LayerStyle
ComfyUI_LayerStyle 相关内容如下: 加载模型部分: 下好工作流中的所需三张图片“SeasonYou_Reference、BG、MASK”以及上传自己所需的照片到 Input 部分。右上角放自己的人像图片(非人像会报错提示“no face detected”)。 对于 vae 加载器部分,选择 xl 版本(因为大模型用的 xl)的 vae 即可。 对于 ipadater 部分,倘若加载器部分报错说 model 不存在,将文中画圈部分修改调整到不报错。 Pulid 部分,除了下载好对应的节点以及参考官方网站最下面的安装对应要求外,还要注意对应安装一些内容,具体要求可查看云盘中命名为“pulid 插件模型位置.png”及对应的云盘链接:PulID 全套模型 链接:https://pan.baidu.com/s/1ami4FA4w9mjuAsPK49kMAw?pwd=y6hb 提取码:y6hb ,否则将会报错。 爆肝博主 ZHO 的更新记录: 3 月 7 日:ComfyUI 支持 Stable Cascade 的 Inpainting ControlNet,ComfyUI 作者在示例页面给出了说明和工作流:https://comfyanonymous.github.io/ComfyUI_examples/stable_cascade/ ,博主自己也整理了一版,分享在:https://github.com/ZHOZHOZHO/ComfyUIWorkflowsZHO ,说明第二个 inpainting+composite 是将原图帖回到重绘之后的效果,是非必要项,按需使用。 3 月 6 日:国内作者把 ps 很多功能都迁移到了 ComfyUI 里,项目是:https://github.com/chflame163/ComfyUI_LayerStyle 。最新版 ComfyUI 支持了一系列图像形态学处理,包括 erode 腐蚀(去除小噪点/分离相邻对象)、dilate 膨胀(填补小洞/连接临近对象)、open 开(先腐蚀后膨胀)、close 闭(先膨胀后腐蚀)、gradient 梯度(膨胀与腐蚀之差)、top_hat 顶帽(原图与开之差)、bottom_hat 底帽(原图与闭之差)。使用方法为:1)更新 ComfyUI;2)右键 image/postprocessing/ImageMorphology;3)接上图像输入和输出即可。
2025-01-15
在comfyUI中可以接入哪些api,又和3D相关的吗
在 ComfyUI 中可以接入以下与 3D 相关的 API: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材,并直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai ,https://x.com/xiaohuggg/status/1763758877999587757?s=20 2. Move AI 推出的 Move API:可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。链接:https://move.ai/api ,https://x.com/xiaohuggg/status/1761590288576061573?s=20 3. ComfyUI 3D Pack 引入 3D 图像处理:可以快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。链接:https://github.com/MrForExample/ComfyUI3DPack/tree/main ,https://x.com/xiaohuggg/status/1755824687811346514?s=20 此外,ZHO 博主有关于 ComfyUI 的更新记录: 1. 4 月 18 日,ComfyUI Stable Diffusion 3 API 已更新为 V1.5 版,图生图和 SD3 Turbo 都可以正常使用,但 SD3 图生图模式不支持选择比例,SD3 Turbo 模型不支持负面提示词。使用方法是先申请 API,然后填入 config.json 文件即可(每账户 25 免费积分),SD3 每张图 6.5 积分(比较贵)。项目地址:https://github.com/ZHOZHOZHO/ComfyUIStableDiffusion3API ,SD3 API ComfyUI 节点测试成功。 2. 4 月 17 日,Stability AI 刚刚发布了 Stable Diffusion 3 和 Stable Diffusion 3 Turbo,现在已经可通过 Stability AI 开发者平台 API 使用,SAI 计划在不久的将来通过会员资格提供模型权重。详情:https://bit.ly/3W43FjY
2025-01-14
在comfyUI中可以接入哪些节点
在 ComfyUI 中可以接入以下类型的节点: 1. 输入节点: 文本提示节点:用于输入生成图像的文本描述。 图像输入节点:用于输入基础图像进行二次生成。 噪声节点:用于输入初始噪声图像。 2. 处理节点: 采样器节点:选择图像生成所使用的采样器。 调度器节点:选择图像生成所使用的调度器。 CFG Scale 节点:调整引导式采样的强度。 步数节点:设置图像生成的迭代步数。 3. 输出节点: 图像输出节点:显示生成的最终图像。 4. 辅助节点: 批处理节点:支持批量生成多个图像。 图像变换节点:提供图像旋转、翻转等功能。 图像融合节点:可以将多个图像合并成一个。 此外,还有一些特定的节点插件,如: 1. PuLID 节点插件: model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。 2. 中文提示词输入相关节点: 安装完成后,在【新建节点】【Alek 节点】下,有【预览文本】、【绘画】、【姿态】、【clip 文本编码器】和【翻译文本】这五个节点。 【clip 文本编码器(翻译)】可代替自带的【clip 文本编码器】,直接输入中文。但引用负向 embedding 时,文件夹路径不能有中文。 【翻译文本】节点可代替【元节点】,在 sdxl 流程中,当需要将文本信息单独列出来时使用。 【预览文本】节点可连接到【翻译文本】检查翻译是否正确。 如果翻译失效,可双击“embedded_instail”进行安装,然后用记事本打开 BaiduTranslate.py,填入在百度翻译开发平台申请的 ID 和密码,即可正常翻译。
2025-01-14
chatgpt官网链接
ChatGPT 官网有多个版本,目前主要有 GPT3.5、GPT4 和 ChatGPT 4o。 GPT3.5 为免费版本,拥有 GPT 账号即可使用,但智能程度相对较低,无法使用 DALL.E3(AI 画图功能)、GPTs 商店和高级数据分析等插件。其知识更新到 2022 年 1 月。 GPT4 知识更新到 2023 年 12 月,若想使用更多功能更智能的 GPT4o 需升级到 PLUS 套餐,收费标准为 20 美金一个月。GPT4 还有团队版和企业版,费用更贵,一般推荐使用 PLUS 套餐。 ChatGPT 4o 于 5.13 发布,可免费体验,但次数有限,知识更新到 2023 年 10 月。 在注册 ChatGPT 账号前,建议先注册一个谷歌账号,因为国外很多软件支持谷歌账号一键登录,可省去很多日后的注册流程。目前注册谷歌账号支持国内手机号码和国内邮箱验证,过程简单。 以下是相关文章链接:
2025-01-13
ChatGPT 官网
ChatGPT 官网相关信息如下: ChatGPT 是一种基于 GPT(生成式预训练变换器)架构的人工智能模型,由 OpenAI 开发,是目前最先进的人工智能模型,是一种自然语言处理(NLP)工具,能够理解和生成接近人类水平的文本。 目前 ChatGPT 官网有两个版本,分别是 GPT3.5 和 GPT4。GPT3.5 是免费版本,拥有 GPT 账号即可使用,但智能程度不如 GPT4,且无法使用 DALL.E3(AI 画图功能)和 GPTs 商店和高级数据分析等插件。GPT4 若要使用更多功能,可升级到 PLUS 套餐,收费标准为 20 美金一个月,此外还有团队版和企业版,功能更多、限制更少,但费用更贵,一般推荐使用 PLUS 套餐。 此外,还有 ChatGPT 4o 版本,发布会上称其可免费体验,但免费体验次数有限。ChatGPT 3.5 的知识更新到 2022 年 1 月,ChatGPT 4o 的知识更新到 2023 年 10 月,ChatGPT 4 更新到 2023 年 12 月。
2025-01-08
有哪些搭建官网比较好用的AI工具吗
以下是一些搭建官网比较好用的 AI 工具: 1. Wix ADI(Artificial Design Intelligence) 网址:https://www.wix.com/ 特点:基于用户提供的信息,自动生成定制化网站;提供多个设计选项和布局,用户可进一步调整和自定义;集成了 SEO 工具和分析功能,帮助优化网站表现。 2. Bookmark 网址:https://www.bookmark.com/ 特点:AIDA(Artificial Intelligence Design Assistant)通过询问用户几个简单问题,快速生成网站;提供直观的拖放编辑器,用户可轻松自定义网站内容和布局;包括多种行业模板和自动化营销工具。 3. Firedrop 网址:https://firedrop.ai/ 特点:Sacha 是 Firedrop 的 AI 设计助手,可根据用户指示创建和修改网站设计;提供实时编辑和预览功能,帮助用户随时查看网站效果;包含多种现代设计风格和自定义选项。 4. The Grid 网址:https://thegrid.io/ 特点:Molly 是 The Grid 的 AI 设计助手,可自动调整网站的设计和布局;基于内容和用户互动进行优化,提供个性化的网站设计体验;支持多种内容类型,包括博客、商店和画廊等。 5. Zyro 网址:https://zyro.com/ 特点:使用 AI 生成网站内容,包括文本、图像和布局建议;提供 AI 驱动的品牌和标志生成器,帮助创建独特的品牌形象;包含 SEO 和营销工具,帮助提升网站可见性和流量。 6. 10Web 网址:https://10web.io/ 特点:基于 AI 的 WordPress 网站构建工具,可自动生成网站布局和设计;提供一键迁移功能,将现有网站迁移到 10Web 平台;集成的 AI 驱动 SEO 分析和优化工具。 7. Jimdo Dolphin 网址:https://www.jimdo.com/ 特点:Dolphin 是 Jimdo 的 AI 网站构建器,通过询问用户问题来定制网站;提供自动生成的内容和图像,帮助快速启动网站;包含电子商务功能,适合小型企业和在线商店。 8. Site123 网址:https://www.site123.com/ 特点:简单易用的 AI 网站构建工具,适合初学者;提供多种设计模板和布局,用户可快速创建专业网站;包括内置的 SEO 和分析工具,帮助优化网站表现。
2025-01-05
可灵ai官网教学
以下是关于可灵 AI 的相关信息: 可灵是一款由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频。 其特点包括: 1. 生成的图像质量非常高。 2. 最初采用内测邀请制,现在已向所有用户开放使用。 费用方面: 1. 价格相对较高,重度用户的最高档年费可能达到几千元人民币,平均每月使用成本在 400 到 600 元人民币之间。 2. 对于临时使用或轻度使用的用户,有每日免费点数和 60 多元单月的最便宜包月选项。 您可以通过以下方式获取更多关于可灵 AI 的教学内容: 1. 可灵的官网帮助中心。 2. 相关的视频教程,如“【90 分钟视频教程】全网最详细的 Coze AI 应用教学”。
2024-12-21
gamma官网地址
Gamma 有以下两种含义: 1. 作为在线演示文稿制作平台,利用人工智能技术帮助用户快速创建和设计演示文稿。用户通过简单文本输入生成幻灯片,AI 系统提供布局建议和设计元素,支持多种多媒体格式嵌入,有多种预设主题和自定义选项,目标是简化创建过程,让非设计专业人士也能轻松制作出专业外观的演示文稿,节省设计时间,专注内容表达和创意发挥。 2. 谷歌推出的全新开源模型系列“Gemma”,相比 Gemini 更加轻量,保持免费可用,模型权重开源且允许商用。包含 Gemma 2B 和 Gemma 7B 两种权重规模的模型,每种规模都有预训练和指令微调版本。可通过 Kaggle、谷歌的 Colab Notebook 或 Google Cloud 访问,也第一时间上线了 HuggingFace 和 HuggingChat。官方页面:https://ai.google.dev/gemma/ 模型地址: 。
2024-11-10
Stable Diffusion官网
以下是 Stable Diffusion 的相关信息: Stable Diffusion 系列资源: SD 1.4 官方项目: SD 1.5 官方项目: SD 2.x 官方项目: diffusers 库中的 SD 代码 pipelines: SD 核心论文: SD Turbo 技术报告: 教程目录: 1. Stable Diffusion 系列资源 2. 零基础深入浅出理解 Stable Diffusion 核心基础原理 2.1 通俗讲解 Stable Diffusion 模型工作流程(包含详细图解) 2.2 从 0 到 1 读懂 Stable Diffusion 模型核心基础原理(包含详细图解) 2.3 零基础读懂 Stable Diffusion 训练全过程(包含详细图解) 2.4 其他主流生成式模型介绍 3. Stable Diffusion 核心网络结构解析(全网最详细) 3.1 SD 模型整体架构初识 3.2 VAE 模型 3.3 UNet 模型 3.4 CLIP Text Encoder 模型 3.5 SD 官方训练细节解析 4. 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解) 4.1 零基础使用 ComfyUI 搭建 Stable Diffusion 推理流程 4.2 零基础使用 SD.Next 搭建 Stable Diffusion 推理流程 4.3 零基础使用 Stable Diffusion WebUI 搭建 Stable Diffusion 推理流程 目前 Stable Diffusion WebUI 可以说是开源社区使用 Stable Diffusion 模型进行 AI 绘画最热门的框架。是 AI 绘画领域最为流行的框架,其生态极其繁荣,非常多的上下游插件能够与 Stable Diffusion WebUI 一起完成诸如 AI 视频生成,AI 证件照生成等工作流,可玩性非常强。接下来,咱们就使用这个流行框架搭建 Stable Diffusion 推理流程。首先,我们需要下载安装 Stable Diffusion WebUI 框架,我们只需要在命令行输入如下代码即可。安装好后,我们可以看到本地的 stablediffusionwebui 文件夹。下面我们需要安装其依赖库,我们进入 Stable Diffusion WebUI 文件夹,并进行以下操作。和 SD.Next 的配置流程类似,我们还需要配置 Stable Diffusion WebUI 的 repositories 插件,我们需要运行下面的代码。如果发现 repositories 插件下载速度较慢,出现很多报错,don't worry,大家可以直接使用 Rocky 已经配置好的资源包,可以快速启动 Stable Diffusion WebUI 框架。Stable Diffusion WebUI 资源包可以关注公众号 WeThinkIn,后台回复“ WebUI 资源”获取。 4.4 零基础使用 diffusers 搭建 Stable Diffusion 推理流程 4.5 Stable Diffusion 生成示例 5. Stable Diffusion 经典应用场景 5.1 文本生成图像 5.2 图片生成图片 5.3 图像 inpainting 5.4 使用 controlnet 辅助生成图片 5.5 超分辨率重建 6. 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解) 6.0 Stable Diffusion 训练资源分享 6.1 Stable Diffusion 模型训练初识 6.2 配置训练环境与训练文件 6.3 SD 训练数据集制作 6.4 Stable Diffusion 微调(finetune)训练
2024-09-18