Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

SD云端部署的教程

Answer

Stable Diffusion(SD)的云端部署允许用户利用云服务器的强大计算能力来运行和操作AI绘图模型,无需高端的本地硬件。以下是SD云端部署的教程概述:

  1. 购买云服务器:选择一个云服务提供商,如腾讯云,并购买GPU服务器。在购买时选择合适的配置,如GN7 8核32GB,N卡,并选择Ubuntu Server作为操作系统。
  2. 配置运行环境:安装Anaconda以管理Python环境和依赖。可以通过wget下载Anaconda安装脚本,并按照提示完成安装。
  3. 安装SD-webui:将SD-webui克隆到服务器上,使用git clone命令。然后,修改相关配置文件,如launch.until.py,以适应国内的网络环境。
  4. 启动SD:在激活了相应conda环境后,定位到stable-diffusion-webui项目目录下,执行启动脚本,如./webui.sh --listen,以启动SD的Web界面。
  5. 修改Webui配置:编辑webui.user.sh文件,预先配置一些参数,简化启动流程。
  6. 扩展换源:由于一些扩展源无法在国内直接访问,需要替换成国内可访问的源,如秋叶大佬的源地址。
  7. 下载与安装LoRA和VAE:下载必要的模型,并上传到服务器的相应目录下。LoRA和VAE模型通常需要放置在特定的文件夹内,并在Web UI中进行配置以使其可用。
  8. 安装ControlNet:根据服务器的位置,选择直接从GitHub安装或下载压缩包后上传至服务器。
  9. 配置Clip Skip:调整Clip Skip的设置,并在UI中添加相应的模块以启用该功能。
  10. 安装Hypernetworks(可选):下载并安装Hypernetworks模型,上传到指定的文件夹,并刷新Web UI。
  11. 插件使用:安装汉化插件和其他有用的扩展,如中英对照tag自动补全插件,以改善用户体验。
  12. 保持服务器连接:使用如Putty等工具保持服务器连接的稳定性,避免因连接中断而导致的工作中断。
  13. 其他注意事项:在部署过程中,确保网络环境稳定,及时解决可能遇到的技术问题,并合理管理服务器资源以避免不必要的费用。

请注意,具体的部署步骤可能会根据云服务商的不同而有所变化,同时,确保遵循云服务提供商的使用条款和隐私政策。在部署时,也要注意数据安全和隐私保护,避免泄露敏感信息。

Content generated by AI large model, please carefully verify (powered by aily)

References

Others are asking
开源模型的MIT模式、Apache、GPL、BSD模式的模型案例有哪些?
目前开源模型的 MIT 模式、Apache、GPL、BSD 模式的具体案例众多且不断更新。MIT 模式的开源模型如 TensorFlow Lite;Apache 模式的有 MXNet;GPL 模式的像 Gnuplot;BSD 模式的例如 OpenCV 等。但请注意,这只是其中的一部分,实际情况可能会有所变化。
2025-02-14
开源模型的MIT模式、Apache、GPL、BSD模式的定义和区别
MIT 模式:这是一种相对宽松的开源许可模式。允许使用者对软件进行修改、再发布,并且几乎没有限制,只要求在再发布时保留原版权声明和许可声明。 Apache 模式:提供了较为宽松的使用条件,允许修改和再发布代码,但要求在修改后的文件中明确注明修改信息。同时,还包含一些专利相关的条款。 GPL 模式:具有较强的传染性和约束性。如果基于 GPL 许可的代码进行修改和再发布,修改后的代码也必须以 GPL 许可发布,以保证代码的开源性和可共享性。 BSD 模式:也是一种较为宽松的许可模式,允许使用者自由地修改和再发布代码,通常只要求保留原版权声明。 总的来说,这些开源许可模式在对使用者的限制和要求上有所不同,您在选择使用开源模型时,需要根据具体需求和项目情况来确定适合的许可模式。
2025-02-14
可以不学sd而是直接学comfyui
学习 ComfyUI 而不先学习 SD 是可行的。ComfyUI 具有一些独特的优势,例如更接近 SD 的底层工作原理,能够实现自动化工作流以消灭重复性工作,作为强大的可视化后端工具还能实现 SD 之外的功能,如调用 API 等,并且可根据定制需求开发节点或模块。 比如,有人基于 ComfyUI 中的创建了工作流,不仅能用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。 在电脑硬件方面,使用 ComfyUI 时,系统要求 Windows7 以上,显卡要求 NVDIA 独立显卡且显存至少 4G 起步,硬盘需留有至少 100G 空间(包括模型)。但 mac 系统、AMD 显卡、低显卡的情况也能安装使用,只是功能不全、出错率偏高,严重影响使用体验,建议升级设备或采用云服务器。
2025-02-08
除了SD,有哪些方便快捷的网站可以用的?
以下是一些方便快捷的 AI 相关网站: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/ 3. 哩布哩布 AI:其在线 SD 界面和本地部署界面区别不大,每天有一百次生成次数,且已集成最新的 SDXL 模型。 4. Clipdrop:https://clipdrop.co/stablediffusion ,和 midjourney 的使用方法相似,每天免费 400 张图片,需排队,出四张图约二三十秒。 此外,还有一些 AI 视频相关的网站: 1. SVD:https://stablevideo.com/ ,对于景观更好用。 2. Morph Studio:https://app.morphstudio.com/ ,还在内测。 3. Heygen:https://www.heygen.com/ ,数字人/对口型。 4. Kaiber:https://kaiber.ai/ 5. Moonvalley:https://moonvalley.ai/ 6. Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 7. 美图旗下:https://www.miraclevision.com/ 8. Neverends:https://neverends.life/create ,操作傻瓜。 9. Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 10. Krea:https://www.krea.ai/ 11. Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 12. Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 13. invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 14. descript:https://www.descript.com/?ref=feizhuke.com 15. veed.io:https://www.veed.io/ ,自动翻译自动字幕。 16. clipchamp:https://app.clipchamp.com/ 17. typeframes:https://www.revid.ai/?ref=aibot.cn
2025-02-04
SD曝显存
在使用 SD 进行超大尺寸绘制时,直接调分辨率绘制超高分辨率的图片(如 10000x768 的清明上河图)通常会爆显存。正常尺寸设置最高到 2048,无法直接设置 10000 的宽度。解决方法是先在 PS 中设置所需尺寸的画布并保存为 jpg 图片,然后将图片放入 ControlNet 中,点击右下角箭头将尺寸信息发送到生成设置,填入正反向提示词,并启用 Tiled Diffusion 插件(方案选择 Mixture of Diffusers)防止接缝产生。 在 ComfyUI 中,模型的安装部署方面,FLUX 模型建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量。clip 模型(t5xxl_fp16.safetensors 和 clip_l.safetensors)放在 ComfyUI/models/clip/文件夹,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率。Vae 模型下载后放入 ComfyUI/models/vae 文件夹。 在生成过程中,ComfyUI 处理 SDXL 模型比 webUI 更有效率。例如,ComfyUI 生成过程中显存占用率为 7 9GB,每次生成耗时 13 15s;webUI 显存占用率为 8 11GB,每次生成耗时 25s。此外,还可对 SDXL 进行风格控制,添加【新建节点】【实用工具】【SDXL Promot Styler Advanced】节点,通过右键增加输入点将文本提示词赋予 base 和 refiner 并切换风格。
2025-02-02
sd 的imagebrowser在哪下载
Stable Diffusion 的 ImageBrowser 插件可以通过以下方式下载: 因为该插件还没有收录到官方的插件列表当中,您可以到这个网址去下载:https://github.com/hnmr293/sdwebuicutoff ,或者是去作者的云盘链接下载。安装之后重启,就可以看到这个插件。 另外,大多数的模型都是在 Civitai(C 站)这个网站里面下载,网址为:https://civitai.com/ 。使用 C 站时需要科学上网,点击右上角的筛选按钮,在框框里面找到自己需要的模型类型。下载的模型保存位置如下: 大模型:存放在 SD 根目录的【……\\models\\Stablediffusion】文件夹。 Lora:存放在根目录下的相应文件夹。 VAE:存放在根目录的【……\\models\\VAE】文件夹。 如果不会科学上网,也可以去启动器的界面直接下载模型。下载的 Embedding 可以在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2025-01-23
通义灵码教程
以下是关于通义灵码的教程: 1. 通义灵码安装:在 vscode 中安装通义灵码,包括在应用商店搜索、安装及相关设置。 2. vscode 界面介绍:讲解新下载 vscode 后的界面,如文件操作、左侧栏功能、搜索功能等,重点指出初级阶段需了解的三个点。 3. 通义灵码拖动:演示将通义灵码从左侧拖动至右侧的操作,此操作基于个人习惯,不拖也不影响使用。 4. 活动回顾与目标:回顾第一节课关于 AI 编程的理解、能力边界、表达需求等内容,明确本次活动目标为完成新年接福小游戏。 5. 复刻新年接福小游戏的流程与方法: 明确目标:确定制作小游戏的目的,如为课程增添趣味性。 绘制原型:将想法具象化,画出游戏页面框架,如开始页、游戏中财宝掉落和用户操作等。 准备素材:寻找合适的图片完善游戏画面,如背景图、财宝和人物形象等。 清晰表达:把需求准确表述给 AI 程序员,如创建文件夹、在特定位置编辑需求等。 利用工具:使用 AI 程序员和相关编程工具实现游戏开发。 此外,通义灵码是阿里巴巴团队推出的一款基于通义大模型的智能编程辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成、代码解释、研发智能问答、异常报错排查等能力。在 Pytharm 中,通过“文件”“设置”“插件”红色框位置搜索“通义灵码”进行安装(目前免费)。
2025-02-17
有没有lora怎么使用的教程
以下是关于 Lora 使用的教程: 1. 港风胶片 Lora 模型使用方法: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 Lora。上一期活动链接:。胶片 Lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. Comfyui SDXLLightning 中 Lora 的使用: SDXLLightning 是字节跳动推出的高速文本生成图像模型,包含完整的 UNet 和 LoRA 检查点。用户可以使用 Diffusers 和 ComfyUI 等框架进行配置。模型地址:https://huggingface.co/ByteDance/SDXLLightning/tree/main 。 实际使用时,拿 Lora 的使用来做介绍,使用方法和平常的 Lora 用法一样,但需要注意 CFG 值需要调小,一般设置为 1,另外步数设置根据使用的 Lora 步数为准。 3. Stable Diffusion 中 Lora 的使用: 当想要生成多张同一张脸的照片时,需要用到 Lora 模型。Lora 可以固定照片的特征,如人物特征、动作特征、照片风格。 点击“生成”下面的第三个按钮,弹出新的选项框,找到 Lora,就会出现下载保存到电脑的 Lora 模型。 点击要用的 Lora,会自动添加到关键词的文本框里面。Lora 可以叠加使用,但建议新手不要使用太多 Lora,每个 Lora 后面的数字用于调整权重,一般只会降低权重。 选择 Lora 时,要根据最开始想要生成的照片类型来选择,比如想生成真人模特,对应的 Lora 也要选用真人模特。
2025-02-17
帮我找一些具有文件上传功能的AI智能体或应用的搭建教程
以下是一些具有文件上传功能的 AI 智能体或应用的搭建教程: 使用 Coze 搭建: 方法一:直接使用 Coze 的 API 对接前端 UI 框架,将工作流逻辑集中在工程模板端,实现前后端分离的处理方式。 方法二:直接调用大模型 API,并通过前端代码实现提示词处理和逻辑控制,将交互流程完全放入前端代码中。 实现文件上传:通过 Coze 的,用户可将本地文件上传至 Coze 的云存储。在消息或对话中,文件上传成功后可通过指定 file_id 来直接引用该文件。 Coze 的 API 与工作流执行:关于 API 的使用及工作流执行流程可以参考。 设计界面:搭建 Demo 最简单的方式是首先绘制草图,然后借助多模态 AI 工具(如 GPT/Claude)生成初步的前端结构代码。前端开发语言包括 HTML 用于构建网页基础框架,定义整体页面结构;CSS 负责网页布局样式美化;JavaScript 实现交互逻辑,如信息处理、网络请求及动态交互功能。 Stuart 教学 coze 应用中的“上传图片”: 传递上传图片地址:首先,把工作流的入参设置为 File>Image。然后,注意代码内容,其中 ImageUpload1 部分是可以替换成实际的文件上传组件的组件名称的,一个引号,一个大括号都不能错。 获得图片 URL:接下来就比较简单了,工作流中可以直接用这个 image 变量,也可以用 string 模式输出,它会在工作流中变成图片的 URL。 无企业资质也能 coze 变现: 以 API 形式链接 Zion 和 Coze:同理也可以为 dify、kimi 等给任何大模型&Agent 制作收费前端。参考教程: 自定义配置:变现模版 UI 交互、API、数据库等拓展功能,支持在 Zion 内自由修改,可参考文档配置。相关链接:支付: 微信小程序变现模版正在开发中,不久将会上线。目前实现小程序端可以通过 API 形式搭建。 Zion 支持小程序,Web,AI 行为流全栈搭建,APP 端全栈搭建 2025 上线。
2025-02-16
帮我查找关于文件上传的智能体搭建教程 、
以下是关于文件上传的智能体搭建教程: 1. 上传文档至知识库: 点击【上传知识】按钮,进入知识上传和配置页面。 上传文档文件或 URL 导入。 上传文档类知识:支持上传 pdf(建议)、doc/docx、ppt/pptx、xlsx、csv、txt、md 等类型的文档,当前文档默认上传大小不超过 50M。对于本地化部署的知识库,可通过配置文件调整此限制。 可以添加 URL 类知识:支持添加多个 url 链接,添加后将会至网页中抓取静态内容,当前暂不支持下钻抓取其他网页的内容;手动点击更新后将会从网页上重新爬取内容(仅包含静态网页内容,不可下钻爬取内容)。若企业自有网站会做知识的动态更新,可以手动快速同步到清流平台上。 配置知识的切片方式:切片类型选择当前系统会根据解析的知识类型自动选择,若想了解更多信息,可至【进阶功能】【文档切片调优】处查看。设置支持配置图片处理方式和自定义切片方式,了解更多信息,可至【进阶功能】【文档切片调优】、【图片解析】处查看。 知识预览:根据选择的知识类型,展示预览内容方便查看切片效果。 2. 知识处理学习:配置完成后知识将进入数据处理中状态,主要对知识进行解析、切片和向量化处理,此时耐心等待数据处理完成即可。
2025-02-16
coze教程
以下是关于 Coze 教程的相关内容: 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南: 长文预警,请视情况收藏保存。 核心看点: 通过实际案例逐步演示,用 Coze 工作流构建一个能够稳定按照模板要求,生成结构化内容的 AI Agent。 开源 AI Agent 的设计到落地的全过程思路。 10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群: 任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍)。 希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 此外,还有以下关于 Coze 的介绍: Coze 是新一代一站式 AI Bot 开发平台。无论是否有编程基础,都可以在 Coze 平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单的问答到处理复杂逻辑的对话。并且,可以将搭建的 Bot 发布到各类社交平台和通讯软件上,与这些平台/软件上的用户互动。 个人认为:Coze 是字节针对 AI Agent 这一领域的初代产品,在 Coze 中将 AI Agent 称之为 Bot。字节针对 Coze 这个产品部署了两个站点,分别是国内版和海外版。 国内版: 网址:https://www.coze.cn 官方文档教程:https://www.coze.cn/docs/guides/welcome 大模型:使用的是字节自研的云雀大模型,国内网络即可正常访问。 海外版: 网址:https://www.coze.com 官方文档教程:https://www.coze.com/docs/guides/welcome 大模型:GPT4、GPT3.5 等大模型(可以在这里白嫖 ChatGPT4,具体参考文档:),访问需要突破网络限制的工具。 参考文档:https://www.coze.com/docs/zh_cn/welcome.html AI Agent 的开发流程: Bot 的开发和调试页面布局主要分为如下几个区块:提示词和人设的区块、Bot 的技能组件、插件、工作流、Bot 的记忆组件、知识库、变量、数据库、长记忆、文件盒子、一些先进的配置、触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色)。下面会逐一讲解每个组件的能力以及使用方式。
2025-02-16
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南中提到长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 相关比赛中的教程: 基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库(https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平(https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent(https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验(https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏(https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档(https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-02-16
如何做大模型的云端部署与微调
做大模型的云端部署与微调,主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 例如,对于 SDXL 的大模型,本地部署时要注意模型分为 base+refiner 以及配套的 VAE 模型,需将其放入对应文件夹,并在秋叶启动器中将 webUI 的版本升级到 1.5 以上。而对于 Llama3 的部署和微调,实操分两部分,包括本地部署并通过 webdemo 对话,以及使用特定数据集进行微调,具体流程为购买服务器、安装代码环境、下载通用模型和数据集、挑选微调框架、编写微调程序和验证结果。 总的来说,部署和微调大模型需要综合考虑多方面因素,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-10-26
对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?
大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。 对于开源本地部署,以下是一些相关信息: Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装可访问 https://ollama.com/download/ 。 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。 同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。 对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。
2024-09-03
云端comfy ui
以下是关于云端 Comfy UI 的使用教程: 1. 打开链接的工作流:https://www.esheep.com/app/5977 ,点击查看工作流,会出现登录或注册界面,正常注册即可。如果已经登录会自动出现相应界面。 2. 步骤 1:红色框选择生成图片的大模型,绿色框添加提示词,蓝色框填写反向提示词。 3. 步骤 2:红色框设置大小确保是 16:9 的比例,绿色框修改参数,若不理解参数保持默认即可。 4. 步骤 3:红色框上传深度图。 5. 步骤 4:点击立即生成,最下面就会出现图片,在生成历史中下载图片即可。
2024-08-11
为什么要本地部署
以下是关于本地部署的一些原因: 对于只有特定设备(如只有一台 Mac 设备),且想灵活学习 AI 生图的情况,本地部署是最方便的。 如果电脑是 M 芯片的 Mac 电脑(Intel 芯片出图速度慢不建议)或者 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署,强烈建议在配有 N 卡的 Windows 电脑上进行。 本地部署测试方便,还可以尝试让其控制家里的智能家居。
2025-02-17
Deepseek老是“服务器繁忙,请稍后再试”,没有办法提升,比如说把模型部署到本地等等
如果您遇到 DeepSeek 老是显示“服务器繁忙,请稍后再试”且无法提升的情况,可以尝试以下方法: 1. 使用网页聊天: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件并添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL 为 https://ark.cnbeijing.volces.com/api/v3,填好之后点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 2. 完成上述操作后,您就可以愉快玩耍,无需担心“服务器繁忙”了,打开联网功能,还可以支持联网搜索使用 R1。
2025-02-15
comfyui的本地部署安装,GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G*2
以下是关于 ComfyUI 本地部署安装的相关信息: ComfyUI 相比 WebUI,配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。如果电脑能顺畅清晰地玩 3A 游戏,那玩 webui 和 ComfyUI 也没问题。配置上不封顶,根据自己的需求和预算来即可。 安装地址:https://github.com/comfyanonymous/ComfyUI 。可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComFYUI_windows_portable\\ComfyUI\\models\\vae 。 已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 您的电脑配置为 GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G2,可能需要注意内存方面可能不太满足推荐配置,可能会影响运行效果。
2025-02-13
deepseek怎么在电脑本地部署使用
以下是在电脑本地部署 DeepSeek 的步骤: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。开通成功的样子如相关说明。 2. 开通 DeepSeek R1 大模型:访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze 。打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。添加在线推理模型,添加后在扣子开发平台才能使用,具体添加过程包括添加模型和完成接入。 3. 创建智能体:点击创建,先完成一个智能体的创建。 此外,您还可以参考以下文章获取更详细的教程:《张梦飞:15 分钟零基础个人电脑部署 DeepSeekR1(无限制版)智能助手保姆级教程!》(https://waytoagi.feishu.cn/wiki/NjKBw4n8HikDZBkeyB4cDQVynKh?useEs6=0 ),该教程适用于完全没有 AI 部署经验的小白,详细介绍了如何在个人电脑上快速搭建 DeepSeekR1 本地 AI 助手,包括 Ollama 安装、DeepSeekR1 模型下载与运行、显存检查、终端指令操作、网页插件使用等环节,并提供了清晰的步骤图,确保 15 分钟内完成部署。
2025-02-12
coze 能调用用户自己部署的大模型吗
Coze 可以调用用户自己部署的大模型。例如: 在 Coze 上搭建工作流框架时,可通过“个人空间工作流创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
2025-02-12
deepseek部署
以下是关于 DeepSeek 部署的相关信息: DeepSeek R1 大模型成为国民刚需,但官网卡顿且存在不能联网等问题。 实现联网版 R1 大模型的核心路径是通过工作流+DeepSeek R1 大模型。 部署步骤包括: 拥有扣子专业版账号,若为普通账号需自行升级或注册专业号。 开通 DeepSeek R1 大模型,访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze ,在火山方舟中找到开通管理,开通服务并添加在线推理模型,添加后在扣子开发平台才能使用。 创建智能体,点击创建完成智能体的创建。 DeepSeek 大模型具有以下突出特点: 强大:比肩 O1 的推理能力。 便宜:参数少,训练开销与使用费用小。 开源:任何人均可自行下载与部署,提供论文详细说明训练步骤与窍门,甚至有可运行在手机上的 mini 模型。 免费:官方目前提供的服务完全免费,任何人随时随地可用。 联网:暂时唯一支持联网搜索的推理模型(o1 还不支持)。 本土:由没有海外经历甚至没有资深从业经验的本土团队开发完成。 看到相关微博的您可以: 直接访问网页链接马上用起来,也有移动 APP。 使劲用,疯狂用,尝试用它基本取代传统搜索,把各种问题拿去问它。 去看看别人是怎么用的,去试试其他大模型,了解 AI 擅长与不擅长的方面,以及如何调教,继续解锁与迭代属于自己的用法与更多工具。 希望 DeepSeek R1 能让您对当前最先进的 AI 祛魅,让 AI 逐渐变成生活中的水和电。
2025-02-12