直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

SD云端部署的教程

回答

Stable Diffusion(SD)的云端部署允许用户利用云服务器的强大计算能力来运行和操作AI绘图模型,无需高端的本地硬件。以下是SD云端部署的教程概述:

  1. 购买云服务器:选择一个云服务提供商,如腾讯云,并购买GPU服务器。在购买时选择合适的配置,如GN7 8核32GB,N卡,并选择Ubuntu Server作为操作系统。
  2. 配置运行环境:安装Anaconda以管理Python环境和依赖。可以通过wget下载Anaconda安装脚本,并按照提示完成安装。
  3. 安装SD-webui:将SD-webui克隆到服务器上,使用git clone命令。然后,修改相关配置文件,如launch.until.py,以适应国内的网络环境。
  4. 启动SD:在激活了相应conda环境后,定位到stable-diffusion-webui项目目录下,执行启动脚本,如./webui.sh --listen,以启动SD的Web界面。
  5. 修改Webui配置:编辑webui.user.sh文件,预先配置一些参数,简化启动流程。
  6. 扩展换源:由于一些扩展源无法在国内直接访问,需要替换成国内可访问的源,如秋叶大佬的源地址。
  7. 下载与安装LoRA和VAE:下载必要的模型,并上传到服务器的相应目录下。LoRA和VAE模型通常需要放置在特定的文件夹内,并在Web UI中进行配置以使其可用。
  8. 安装ControlNet:根据服务器的位置,选择直接从GitHub安装或下载压缩包后上传至服务器。
  9. 配置Clip Skip:调整Clip Skip的设置,并在UI中添加相应的模块以启用该功能。
  10. 安装Hypernetworks(可选):下载并安装Hypernetworks模型,上传到指定的文件夹,并刷新Web UI。
  11. 插件使用:安装汉化插件和其他有用的扩展,如中英对照tag自动补全插件,以改善用户体验。
  12. 保持服务器连接:使用如Putty等工具保持服务器连接的稳定性,避免因连接中断而导致的工作中断。
  13. 其他注意事项:在部署过程中,确保网络环境稳定,及时解决可能遇到的技术问题,并合理管理服务器资源以避免不必要的费用。

请注意,具体的部署步骤可能会根据云服务商的不同而有所变化,同时,确保遵循云服务提供商的使用条款和隐私政策。在部署时,也要注意数据安全和隐私保护,避免泄露敏感信息。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

其他人在问
Stable Diffusion(SD)收费吗
Stable Diffusion 是开源免费的。其优势在于开源免费、可以本地化部署、创作自由度很高,但需要较好的电脑配置,尤其是显卡。 相比较于 DALLE 等大模型,Stable Diffusion 让用户使用消费级的显卡便能够迅速实现文生图。Stable Diffusion 完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。 目前有关于 Stable Diffusion 的课程,例如《Stable Diffusion 零基础入门宝典》,共计 77 个课时,定价 298 元,上架 CCtalk。因制作字幕课程在逐步解锁中,目前对前 100 名报名的同学有优惠价 198 元。
2024-10-21
Stable Diffusion(SD),怎么操作
Stable Diffusion(SD)的操作包括以下方面: 技术原理: 核心技术来源于AI视频剪辑技术创业公司Runway的Patrick Esser,以及慕尼黑大学机器视觉学习组的Robin Romabach。其技术基础主要来自于他们之前在计算机视觉大会CVPR22上合作发表的潜扩散模型(Latent Diffusion Model)研究。 是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够根据任意文本输入生成高质量、高分辨率、高逼真的图像。 原理步骤包括:使用新颖的文本编码器(OpenCLIP)将文本输入转换为向量表示;使用扩散模型将随机噪声图像逐渐变换为目标图像;在扩散过程中利用文本向量和噪声图像作为条件输入给出变换概率分布;使用超分辨率放大器将生成的低分辨率图像放大到更高分辨率。 用AI给老照片上色: 将照片放入后期处理,使用GFPGAN算法将人脸变清晰。 将图片发送到图生图中,打开stableSR脚本放大两倍,切换到sd2.1的模型进行修复,vae选择vqgan,提示词可不写以免对原图产生干扰。 安装要求: 电脑系统为Win10或者Win11,避免使用更低版本系统。查看方法:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看Windows规格。 检查电脑性能,需满足3个要求:电脑运行内存8GB以上;是英伟达(俗称N卡)的显卡;显卡内存4GB以上。 检查运行内存方法:鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,查看划线参数。8GB为勉强达到标准,16GB可正常使用,32GB能非常自由使用。 查看“GPU”,先看右上角显卡名字或型号,必须是NVIDIA(英伟达)的显卡,若为AMD或Intel,电脑可能不太支持SD,安装教程较麻烦。
2024-10-21
在哪可以下载sd
以下是关于下载 SD 的详细步骤: 1. 确保您的整合包版本是最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新至云盘,后台回复【SD】即可下载。在插件包里面下载相关文件。 2. 将 sdwebuiroop 文件夹拖放到“……\\sdwebuiakiv4.2\\extensions”目录下。 3. 解压 python 压缩包,替换掉根目录下的相应文件。 4. 更改到您想要安装的位置,点击右下角的安装。安装时间较长,请耐心等待。 5. 安装好之后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”,然后回车。在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,会自动开始安装 insightface。如果此阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新至云盘,后台回复【SD】即可下载。 6. 安装完成后,重新打开启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。 此外,如果不会科学上网,也可以去启动器的界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角的模型列表中进行选择(看不到就点旁边的蓝色按钮刷新一下)。旁边的 VAE 可直接在启动器里面下载,下载的 VAE 放在根目录的【……\\models\\VAE】文件夹下。Embedding 可在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2024-10-17
相同的参数下,用SD comfyui出图可以和SD webui出图保持图片效果一模一样么?
理论上,在应用完全相同参数(如 Step、CFG、Seed、prompts)的情况下,SD ComfyUI 出图和 SD WebUI 出图应当能保持图片效果一模一样。但在实际操作中可能会存在一些差异,比如: 提示词的多个条件下,SD 生成的图像可能无法全部满足,这与提示词引导系数有关,该系数关系到出图与文字的相关程度。 不同的模型和配置也可能影响出图效果,例如 SDXL 的大模型分为 base、refiner 以及配套的 VAE 模型,用于调节图片的画面效果和色彩。 需要注意的是,相同参数下要达到完全一致的出图效果并非绝对,还会受到多种因素的综合影响。
2024-10-14
SD教学视频
以下为一些关于 SD 的教学视频推荐: 1. 新手从 0 入门 AI 绘画教程: 推荐系列章节教学视频: 课程内容包括:第一节课 AI 绘画原理与基础界面;第二节课 20 分钟搞懂 Prompt 与参数设置;第三节课 打破次元壁,用 AI“重绘”照片和 CG;第四节课 AI 绘画模型,“画风”自由切换;第五节课 提高 AI 绘画分辨率的方式;第六节课 LoRa | Hypernetwork 概念简析;第七节课 定向修手修脸,手把手教你玩转局部重绘;第八节课 提示词补全翻译反推,“终极”放大脚本与细节优化插件;第九节课 LoRA 从原理到实践;第十节课 零基础掌握 ControlNet。 2. 教程:SD 做中文文字 持续更新中: 视频教程: 制作思路:将中文字做成白底黑字,存成图片样式;使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果;可输出 C4D 模型,可自由贴图材质效果;若希望有景深效果,可打开 depth;打开高清修复,分辨率联系 1024 以上,步数 29 60。 3. SD 从入门到大佬: 推荐跟着 Nenly 同学的【B站 第一套 Stable Diffusion 系统课程】合集走一遍,安装完 SD 后可参考。 可选的一些图片版教程:
2024-10-08
sd提示词网站
以下是一些与 SD 提示词相关的网站和资源: MajinAI: 词图: Black Lily: Danbooru 标签超市: 魔咒百科词典: AI 词汇加速器: NovelAI 魔导书: 鳖哲法典: Danbooru tag: AIBooru: 在写 SD 提示词时,通常的描述逻辑包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,能更精确地控制 Stable Diffusion 的绘图。 对于新手,还有以下功能型辅助网站帮助书写提示词: http://www.atoolbox.net/ ,它可以通过选项卡的方式快速填写关键词信息。 https://ai.dawnmark.cn/ ,每种参数都有缩略图可参考,方便更直观地选择提示词。 还可以去 C 站(https://civitai.com/)里面抄作业,每一张图都有详细的参数,可点击下面的复制数据按钮。 此外,还有“Easy Prompt Selector”插件,安装方式是在扩展面板中点击“从网址安装”,然后输入以下地址 https://github.com/bluepen5805/sdwebeasypromptselector ,然后将汉化包复制进“……\\sdwebuiakiv4\\extensions”路径文件夹下直接覆盖。安装完成后,重启 webUI,就可以在生成按钮下面看到多出来一个“提示词”按钮,点击它会出现下拉列表,里面有很多不同的分类,可根据需要选择提示词。
2024-09-30
COZE教程
以下是关于 Coze 教程的相关信息: 这可能是全网最好的 Coze 教程之一,能一次性带你入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南: 长文预警,请视情况收藏保存。 核心看点: 通过实际案例逐步演示,用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent。 开源 AI Agent 的设计到落地的全过程思路。 10 多项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群: 任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍)。 希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。此外,还有 Coze 官方教程可供参考。
2024-10-29
可灵AI的教程
以下是关于可灵 AI 的教程: 可灵(免费): 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 相关链接: 可灵官网:https://klingai.kuaishou.com/ 知识库详细教程: 使用可灵处理图片生成视频的步骤(以快影为例): 1. 打开快影(需要先通过内测申请),选择 AI 创作。 2. 选择 AI 生成视频。 3. 选择图生视频。 4. 上传处理好的图片,填写想要的互动动作和效果,然后点击生成视频。 5. 排队等待生成结束,点击下载。
2024-10-26
有可灵的教程吗
以下是关于可灵的教程和介绍: 可灵是一款由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频。 教程方面: 知识库详细教程: 功能特点: 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 使用相关: 最初采用内测邀请制,现在已向所有用户开放使用。 价格方面,相对较高。重度用户最高档年费可能达几千元人民币,平均每月使用成本在 400 到 600 元人民币之间。但临时或轻度使用有每日免费点数和 60 多元单月的最便宜包月选项。
2024-10-26
ai绘画相关的教程
以下为一些 AI 绘画相关的教程: 视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: 线稿上色 Midjourney+Stable Diffusion:在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如上面是用 midjourney 生成线稿,PS 稍微做一些修正,再用 controlnet 控制,stable diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。作者:三思。先欣赏下作品: 1、线稿产出:mj 关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background niji 5 style expressive 2、ps 手动手动重绘错误的地方:有些图出来没有阴影容易飘,可以自己画一个出来 SD 新手:视频教程 从 0 入门 AI 绘画教程:🔥强烈推荐,学完变大神系列章节教学视频: 第一节课:AI 绘画原理与基础界面 第二节课:20 分钟搞懂 Prompt 与参数设置,你的 AI 绘画“咒语”学明白了吗? 第三节课:打破次元壁!用 AI“重绘”照片和 CG 第四节课:AI 绘画模型,“画风”自由切换 第五节课:提高 AI 绘画分辨率的方式 第六节课:LoRa | Hypernetwork 概念简析 第七节课:定向修手修脸,手把手教你玩转局部重绘! 第八节课:提示词补全翻译反推,“终极”放大脚本与细节优化插件 第九节课:LoRA 从原理到实践 第十节课:零基础掌握 ControlNet!
2024-10-25
AI视频制作教程
以下是使用 AI 把小说制作成视频的教程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,关于使用 Stable Diffusion 制作中文文字的教程: 1. 将中文字做成白底黑字,存成图片样式。 2. 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 3. 输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 4. 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 5. 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 6. 打开高清修复,分辨率联系 1024 以上,步数:29 60。 同时,为您提供以下相关的 AI 视频工作流教程链接: 1. 2. 3. 4. 5. 6. 7. 8. 9.
2024-10-22
comfyui教程
以下是为您整理的 ComfyUI 教程相关内容: 全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,网站:https://www.comfyuidoc.com/zh/ 优设网:详细的 ComfyUI 入门教程,适合初学者,介绍特点、安装方法及生成图像等内容,地址:https://www.uisdc.com/comfyui3 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户,地址:https://zhuanlan.zhihu.com/p/662041596 Bilibili:一系列涵盖从新手入门到精通各个阶段的视频教程,地址:https://www.bilibili.com/video/BV14r4y1d7r8/ ComfyUI 基础教程部分: 掌握基础界面:熟悉基本界面和操作,包括 Comfyui 工作区介绍、基础节点介绍、KSampler 等。 KSampler: seed:随机种子,用于控制潜空间初始噪声,相同种子和 Prompt 可生成相同图片。 control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 step:采样步数,一般步数越大效果越好,但与模型和采样器有关。 cfg:一般设置为 6 8 之间较好。 sampler_name:可设置采样器算法。 scheduler:控制每个步骤去噪过程,可选择不同调度算法。 denoise:表示增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2024-10-21
如何做大模型的云端部署与微调
做大模型的云端部署与微调,主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 例如,对于 SDXL 的大模型,本地部署时要注意模型分为 base+refiner 以及配套的 VAE 模型,需将其放入对应文件夹,并在秋叶启动器中将 webUI 的版本升级到 1.5 以上。而对于 Llama3 的部署和微调,实操分两部分,包括本地部署并通过 webdemo 对话,以及使用特定数据集进行微调,具体流程为购买服务器、安装代码环境、下载通用模型和数据集、挑选微调框架、编写微调程序和验证结果。 总的来说,部署和微调大模型需要综合考虑多方面因素,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-10-26
对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?
大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。 对于开源本地部署,以下是一些相关信息: Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装可访问 https://ollama.com/download/ 。 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。 同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。 对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。
2024-09-03
云端comfy ui
以下是关于云端 Comfy UI 的使用教程: 1. 打开链接的工作流:https://www.esheep.com/app/5977 ,点击查看工作流,会出现登录或注册界面,正常注册即可。如果已经登录会自动出现相应界面。 2. 步骤 1:红色框选择生成图片的大模型,绿色框添加提示词,蓝色框填写反向提示词。 3. 步骤 2:红色框设置大小确保是 16:9 的比例,绿色框修改参数,若不理解参数保持默认即可。 4. 步骤 3:红色框上传深度图。 5. 步骤 4:点击立即生成,最下面就会出现图片,在生成历史中下载图片即可。
2024-08-11
docker部署qwen
以下是关于 Docker 部署相关问题的综合回答: 容器编排模板: 容器编排模板是一种配置文件,用于在 Docker 中部署和管理多个容器,可一键部署复杂环境,无需手动配置细节,如配置 COW 组件与微信和极简未来平台交互。 使用 Docker 部署 COW 组件的原因: Docker 提供隔离运行环境,确保应用在任何环境稳定运行,简化安装和配置过程,保证环境一致,便于管理和维护。 配置多个前缀触发机器人回复的原因: 配置如“bot”、“@bot”等多个前缀,能确保机器人只在特定情况回复,避免群聊或私聊中频繁干扰,提高响应准确性和用户体验。 扫码登录失败的解决办法: 1. 重启 Docker 容器:在宝塔面板中找到对应容器,点击“重启”。 2. 检查网络连接:确保服务器和微信客户端能正常访问互联网。 3. 重新扫描二维码:等待容器重启后,重新扫描日志中生成的二维码。 费用相关: 使用 AI 微信聊天机器人的费用实际上不高,极简未来平台按使用量收费,对一般用户费用相对低廉,充值少量费用通常可用很长时间,且平台提供每天签到免费领积分福利,进一步降低使用成本。使用极简未来平台创建 AI 机器人的具体费用未明确给出。
2024-10-20
我想在云服务器部署使用 dify 和 comfyui ,云服务器机器配置需要什么要求呢
在云服务器部署使用 Diffy 和 ComfyUI ,云服务器机器配置要求如下: 1. 系统:Windows 7 以上。 2. 显卡要求:NVIDIA 独立显卡且显存至少 4G 起步。但 SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 硬盘:留有足够的空间,最低 100G 起步(包括模型)。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD(固态硬盘)上。 4. 内存:最低 32GB,越高越好,最低配会经常爆显存。 需要注意的是,ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。如果您的电脑能顺畅清晰地玩 3A 游戏,那玩 WebUI 和 ComfyUI 通常也没问题。配置上不封顶,根据自己的需求和预算来选择即可。
2024-10-19
如何在个人电脑中部署本地RAG
在个人电脑中部署本地 RAG 可以按照以下步骤进行: 1. 加载所需的库和模块: 确保 ollama 服务已开启并下载好模型,ollama 用于在 python 程序中跑大模型。 feedparse 用于解析 RSS 订阅源。 2. 从订阅源获取内容: 函数用于从指定的 RSS 订阅 url 提取内容,如需接收多个 url 可稍作改动。 通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,用于进一步的数据处理或信息提取任务。 3. 为文档内容生成向量: 使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,如 /path/to/bgem3,通过函数利用 FAISS 创建一个高效的向量存储。 4. 创建 Python 虚拟环境: 创建 python 虚拟环境,并安装相关库,版本如下: ollama:0.1.8 langchain:0.1.14 faisscpu:1.8.0(有 gpu 则安装 gpu 版本) gradio:4.25.0 feedparser:6.0.11 sentencetransformers:2.6.1 lxml:5.2.1 5. 导入依赖库。 6. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 7. 创建网页 UI:通过 gradio 创建网页 UI,并进行评测。 8. 问答测试:对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
2024-10-13
dify的部署和ollama联动
以下是关于 Dify 与 Ollama 联动部署的相关信息: Ollama 的特点和功能: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 3. 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。 4. 支持自定义模型,可修改温度参数调整创造性和连贯性,或设置特定系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 Ollama 的安装和使用: 1. 访问 https://ollama.com/download/ 下载安装。 2. 安装完后,确保 Ollama 后台服务已启动。在 Mac 上启动 Ollama 应用程序,在 Linux 上通过 ollama serve 启动。可通过 ollama list 确认。 3. 通过 ollama 命令下载模型。 Google Gemma 的本地部署: 1. 进入 ollama.com 下载程序并安装(支持 Windows、Linux 和 macOS)。 2. 在命令提示符中输入 ollama v 检查版本,安装完成后版本应为 0.1.26。 3. 输入 cls 清空屏幕,然后输入 ollama run gemma 运行模型(默认是 2b),首次需要下载。若想用 7b,运行 ollama run gemma:7b 。 4. 完成后可直接对话。2b 反应速度快但互动话题有限,7b 输出内容质量相对高但可能卡顿,对非英文语种反馈不稳定。 5. 常用内部指令:/set 显示设置界面可调整的设置项;/show 显示模型信息;/load <model> 加载已有模型;/bye 退出。 整体框架设计思路: 可先采取 Langchain + Ollama 的技术栈作为 demo 实现,后续也可考虑使用 dify、fastgpt 等更直观易用的 AI 开发平台。本次开发的运行环境是 Intel Mac,其他操作系统也可行。下载模型等可能需要梯子。 Langchain 简介: Langchain 是当前大模型应用开发的主流框架之一,提供一系列工具和接口,使与 LLM 交互变简单。其核心在于“链”概念,是模块化组件系统,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,可灵活组合支持复杂应用逻辑。其生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具,帮助开发者高效管理从原型到生产的各个阶段以优化 LLM 应用。
2024-10-08
如在腾讯云上部署ollama
以下是在腾讯云上部署 Ollama 的详细步骤: 一、下载并安装 Ollama 1. 根据您的电脑系统,点击进入 https://ollama.com/download 下载 Ollama。 2. 下载完成后,双击打开,点击“Install”。 3. 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 二、下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型) 1. 如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 复制以下命令行,粘贴进入,点击回车。 3. 回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 4. 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 三、下载 Open WebUI 1. 回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)。如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 将以下命令输入,等待下载。 3. 出现相关图示,即是下载完成。 4. 点击或复制下方地址进入浏览器:http://localhost:3000/auth/ 5. 点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。 6. 登入后,看到如下页面,点击顶部的 Model,选择“llama3:8b”。 7. 完成。您已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦! 四、部署 Google Gemma 1. 首先进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 2. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26。 3. 输入 cls 清空屏幕,接下来直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。 4. 完成以后就可以直接对话了,2 个模型都安装以后,可以重复上面的指令切换。
2024-09-27