Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如果不是英伟达显卡,可以本地部署SD吗?

Answer

如果不是英伟达显卡,一般不建议本地部署 SD。

SD 的安装要求如下:

  1. 系统需为 Win10 或 Win11。
  2. 查看电脑配置:
    • 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。
    • 查看电脑配置:检查自己的电脑配置能否带动 SD(Stable Diffusion),需要满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。
    • 查看电脑运行内存:打开任务管理器(同时按下 ctrl+shift+esc),8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。
    • 查看电脑显卡内存(显存):4GB 显存可运行 SD,推荐 8GB 以上显存。
  3. 配置达标可跳转至对应安装教程页:1.Win 系统 SD 安装
  4. 配置不够可选择云端部署(Mac 也推荐云端部署):3.SD 云端部署
  5. 备选:SD 好难,先试试简单的无界 AI:图像类-无界 AI 使用教程

另外,Fooocus 是 SD 的相关产品,其使用的是最新推出的 SDXL 1.0 模型,对 stable diffusion 和 Midjourney 做了结合升级。Fooocus 本地部署的配置要求为:需要不低于 8GB 的内存和 4GB 的英伟达显卡。Fooocus 介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G) ,使用指南:https://github.com/lllyasviel/Fooocus/discussions/117 ,大模型(base 和 Refiner)默认放在这里:\Fooocus_win64_1-1-10\Fooocus\models\checkpoints 。

SD 云端部署的流程如下:

  1. 安装和配置基础环境:浏览器上按照腾讯云->控制台->云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。
  2. 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。
  3. 配置环境变量:驱动安装完成后,开始配置环境变量。首先找到驱动安装所在的目录,如果没有特殊设定,一般是在「C:\Program Files\NCIDIA Corporation」,复制这个路径,找到环境变量配置入口(控制面板->系统和安全->系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,将刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。
Content generated by AI large model, please carefully verify (powered by aily)

References

0. SD的安装

①系统需为Win10、Win11②Win系统查看配置③配置达标跳转至对应安装教程页[1.Win系统SD安装](https://qa3dhma45mc.feishu.cn/wiki/D5nawAs1fivF4ykx88ucRIYwn1d)④配置不够可选择云端部署(Mac也推荐云端部署)[3.SD云端部署](https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd)⑤备选:SD好难,先试试简单的无界AI:[图像类-无界AI使用教程](https://qa3dhma45mc.feishu.cn/wiki/LRdOw75tQiN3wAkU43ucwb5Ondd)[heading2]Win系统查看配置[content]Win10和Win11一样没区别[heading3]查看电脑系统:[content]在桌面上找到“我的电脑”一鼠标右键点击一一点击"属性”一一查看Windows规格[heading3]查看电脑配置:[content]这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求(推荐):电脑运行内存8GB以上是英伟达(NVIDA)的显卡显卡内存4GB以上①打开任务管理器:同时按下ctrl+shift+esc②查看电脑运行内存8GB运行内存可以勉强运行SD推荐16GB以上运行内存③查看电脑显卡内存(显存)4GB显存可运行SD,推荐8GB以上显存

【SD】SD的大哥Fooocus重磅问世,三步成图傻瓜式操作

Fooocus使用的是最新推出的SDXL 1.0模型,对stable diffusion和Midjourney做了结合升级:1、保留了SD的开源属性,可以部署到本地免费使用;2、在操作界面吸取了midjourney简洁,省去了WebUI中复杂的参数调节,让用户可以专注于提示和图像。下图就是Fooocus的操作界面。翻译一下:只有图像展示窗口、正向提示词和生成按钮3项。勾选“Advanced”会弹出高级设置的窗口,可以调整画面宽高比、风格、图像数量、种子值、反向提示词、模型、lora权重比值、图像锐利程度等。风格选项这一块是整合了各种常见的画面风格供选择,包含了100多种不同的预设风格,涉及写实、胶片、电影质感、动漫、水彩、黏土、3D、等距、像素、霓虹、赛博朋克、波普、纸艺等各个方面:高级选项这部分是用于设置模型,lora,清晰度等。非常简单且容易上手,很值得试一试。二、Fooocus安装:配置要求:本地部署,需要不低于8GB的内存和4GB的英伟达显卡。Fooocus介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G)使用指南:https://github.com/lllyasviel/Fooocus/discussions/117大模型(base和Refiner)默认放在这里:\Fooocus_win64_1-1-10\Fooocus\models\checkpoints

2. SD云端部署

浏览器上按照腾讯云->控制台->云服务器的路径找到你刚才购买的实例点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的Windows系统环境,接下来安装显卡驱动、配置环境变量即可。[heading3]3.1安装显卡驱动[content]用内置的IE(也可下载Chrome,就是个电脑可以随便造),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows版本号,下载对应的驱动,然后安装上。[heading3]3.2配置环境变量[content]驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\Program Files\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板->系统和安全->系统),选择「高级系统设置」,弹窗设置环境变量找到「系统变量」里的Path环境变量,点击「编辑...」然后「新建」,帮刚才复制的nvidia驱动安装地址粘贴进去,保存即可。

Others are asking
我是一位程序开发小白,不会用代码开发程序。我现在有一台安装Window 11操作系统的笔记本电脑,配置为14代i7CPU、32G内存、1TB硬盘、1张RTX4070显卡。我想部署一套本地的大模型+智能体+知识库。我要怎么样才能实现无代码部署,请列出详细的安装步骤。
以下是为您提供的无代码部署本地大模型、智能体和知识库的详细安装步骤: 1. 硬件评估:您的笔记本电脑配置为 14 代 i7 CPU、32G 内存、1TB 硬盘、1 张 RTX4070 显卡,基本满足部署要求。但需要注意,运行内存最低 32GB,越高越好,最低配可能会经常爆显存。建议将软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 2. 选择合适的部署工具:ComfyUI 是一个相对配置要求较低、系统资源占用少、出图速度快的工具。它最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 安装准备:如果您的电脑能顺畅清晰地玩 3A 游戏,那么运行相关部署工具一般也没问题。 4. 预算和需求:根据您的需求和预算来选择合适的配置。例如,如果有做 AIGC 视频、建模渲染和炼丹(lora)的需求,可能需要更高的配置。 请注意,以上步骤仅为参考,实际部署过程可能会因具体情况而有所不同。
2025-03-26
Nvidia 显卡算力天梯图
以下是为您提供的关于 Nvidia 显卡算力天梯图的相关信息: 算力是指计算能力,可直接理解为显卡的性能。在电脑中,显卡就是 GPU,一张显卡的重要参数包括 GPU 和显存。 GPU 是一种专门做图像和图形相关运算工作的微处理器,其生产商主要有 NVIDIA 和 ATI。GPU 的强大主要决定了生图和训练的效率,越强大的算力在生图(推理)和训练上消耗的时间就越短。显存在生图过程决定了直接推理的图片大小,在训练时受制于训练工具的要求,显存容量是门槛。 在选择算力时,需要综合 GPU 性能和显存大小两个参考维度。由于需要使用到 CUDA 加速,显卡大概率只能选择 NVIDIA 的。 以下为您提供一些可能不太具备时效性的参考资料: 1. 各种显卡的稳定扩散性能测试报告(需要科学?️):https://docs.google.com/spreadsheets/d/1Zlv4UFiciSgmJZncCujuXKHwc4BcxbjbSBg71SdeNk/editgid=0 2. GPU 测评结果方便大家选购:https://ywh1bkansf.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?field=fldzHOwXXK&record=reciB9KZtj&table=tblyh76bHrCi4PXq&view=vewUunvDn1
2025-03-02
我的电脑显卡是1060 5g,可以使用ai软件吗
1060 5G 显卡可以使用一些 AI 软件,但性能可能会受到一定限制。对于一些对显卡性能要求不太高的 AI 应用,例如简单的图像识别、文本处理等,您的显卡能够满足基本需求。然而,对于较为复杂的 AI 任务,如大规模的深度学习模型训练、高质量的 AI 绘画生成等,可能会出现运行速度较慢、效果不理想的情况。 如果您只是初步尝试使用 AI 软件,或者进行一些轻度的应用,您的显卡或许可以胜任。但如果您有更专业、高强度的使用需求,可能需要考虑升级显卡以获得更好的性能体验。
2024-11-10
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06
a800 ,H100,a10,H800这4个显卡能力有啥差异
以下是 A800、H100、A10、H800 这 4 个显卡在能力上的一些差异: 在训练与推理方面: 对于大型模型的训练,许多模型在 NVIDIA H100 上最具成本效益,但获取在 NVIDIA H100 上运行的模型较难,且通常需要长期合作承诺。如今更多的选择是在 NVIDIA A100 上运行大多数模型训练,但对于大型集群仍需要长期承诺。 大型语言模型(LLM)的参数数量众多,通常需要分布到多个卡中,即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(例如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10 等显卡。 在内存要求方面: 大型 LLM 的参数数量太多,任何单卡都无法容纳,需要类似于训练的多卡设置。 对于一些较小的模型,A10 等显卡可能就能够满足其内存需求。 需要注意的是,决定选择哪种 GPU 主要是一个技术决策,需要根据具体应用来确定最具成本效益的选择。
2024-10-16
如何让COMFYUI使用我的INTEL A770显卡?
要让 ComfyUI 使用您的 INTEL A770 显卡,以下是一些相关的步骤和信息供您参考: 首先,ComfyUI 本地安装的方法主要有以下几种: 1. 命令行安装: 如果您已经安装过 SD WebUI,可以跳到第二步。首先需要打开系统 Terminal,不同系统的 Terminal 可能有所不同。 Windows 用户:建议在有 NVIDIA 显卡的电脑上使用。需要下载 Miniconda3,输入相关命令进行安装,然后安装 pytorch 的 nightly 版本。 Mac 用户:安装需要根据电脑芯片不同输入不同代码。下载 Miniconda3 并输入相关命令进行安装,最后安装 pytorch。 2. 安装包安装:仅支持 Windows 系统且显卡必须是 Nivida。下载地址是,下载最新版本解压即可使用。 关于 ComfyUI 的硬件配置: ComfyUI 相比 WebUI 配置更低、系统资源占用更少、出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。 需要注意的是,目前 ComfyUI 对于 INTEL A770 显卡的支持情况可能不太明确,您可能需要根据实际情况进行尝试和调整。
2024-10-10
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
英伟达H200芯片
英伟达 H200 芯片具有以下特点: 推理速度是前代 H100 的两倍。 使用 HBM3e 内存,显存带宽提升至 4.8TB。 NVIDIA 创始人兼首席执行官黄仁勋在 SIGGRAPH 会议上宣布了相关信息,包括下一代 GH200 Grace Hopper 超级芯片平台。Grace Hopper 超级芯片 NVIDIA GH200 已于 5 月份全面投入生产,将具备连接多个 GPU 的能力。Nvidia 还在与 HuggingFace 合作,帮助开发人员在任何云上创建、测试和微调生成式 AI 模型。现在,可以使用 Nvidia 的 Omniverse 以 USD 格式生成 AI 内容,以创建虚拟世界,它包括与 Adobe、Wonder Dynamics 和 Luma AI 等多种 AI 相关的集成。 相关链接:https://x.com/xiaohuggg/status/1724239489302974768?s=20
2024-11-06
英伟达H200
英伟达 H200 是英伟达推出的一款 AI 芯片。其推理速度是前代 H100 的两倍,使用 HBM3e 内存,显存带宽提升至 4.8TB 。NVIDIA 创始人兼首席执行官黄仁勋在 SIGGRAPH 会议上宣布了相关信息,GH200 已于 5 月份全面投入生产,将具备连接多个 GPU 的能力。Nvidia 还正在与 HuggingFace 合作,帮助开发人员在任何云上创建、测试和微调生成式 AI 模型。 相关链接:https://x.com/xiaohuggg/status/1724239489302974768?s=20
2024-10-29
英伟达数字员工
以下为一些英伟达数字员工相关的信息及典型案例: |名字|描述|性别|附件|框架|链接| ||||||| |Hóng|红杉中国首位数字员工,每秒可看百份商业计划书|女||小冰|| |Yumi|SKII 的品牌虚拟形象|女|||| |冯小殊|北京冬奥会气象播报员,数字孪生人|男||小冰|| |夏语冰|中央美术学院研究生,师从邱志杰教授|女||小冰|| |屈晨曦|屈臣氏的品牌虚拟形象|男||小冰|| |度晓晓|百度数字人|女||曦灵数字人|| |星瞳|QQ 炫舞系列虚拟代言人|女|||| |柳夜熙|一个会捉妖的虚拟美妆达人|女|||| |洛天依|中国内地虚拟歌手|女|||| |翎|虚拟偶像|女||魔珐数字人|| 另外,句子互动致力于打造大模型驱动的领先数字员工。关于 AI 智能体,个人理解其相当于为个人提效的数字员工,您可以像老板给员工下达任务一样,通过清晰的目标和提示词让其为您工作,并且不断寻求反馈以实现目标。
2024-10-25
如何本地部署大模型,如何选择是否使用云服务商
以下是关于本地部署大模型以及选择是否使用云服务商的相关内容: 本地部署大模型的主要步骤: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 以 SDXL 为例的本地部署步骤: 1. SDXL 的大模型分为两个部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 以 LLM 大语言模型为例的本地部署步骤: 1. 下载并安装 Ollama,点击进入根据电脑系统下载 Ollama:https://ollama.com/download ,下载完成后,双击打开,点击“Install”,安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 总的来说,部署大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-14
本地部署
SDXL 的本地部署步骤如下: 1. 模型下载:SDXL 的大模型分为两个部分,第一部分 base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化以生成细节更丰富的图片。此外,还有一个配套的 VAE 模型用于调节图片的画面效果和色彩。这三个模型可通过关注公众号【白马与少年】,回复【SDXL】获取云盘下载链接。 2. 版本升级:要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 4. 启动使用:完成上述步骤后启动 webUI,即可在模型中看到 SDXL 的模型。正常使用时,先在文生图中使用 base 模型,填写提示词和常规参数(如尺寸设置为 10241024)进行生成。然后将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点再次点击生成。 5. 插件辅助:若觉得操作麻烦,可在扩展列表中搜索 refine 安装插件并重启,启用插件后可在文生图界面直接使用 refine 模型进行绘画。 另外,关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG,步骤包括导入依赖库(如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,使用前需确保 ollama 服务已开启并下载好模型)、从订阅源获取内容(通过指定函数从 RSS 订阅 url 提取内容,并将长文本拆分成较小的块附带相关元数据)、为文档内容生成向量(使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,通过函数利用 FAISS 创建高效的向量存储),最终实现 RAG。
2025-04-13
我有秋叶整合包,然后需要怎么搭建本地部署?
以下是使用秋叶整合包搭建本地部署的步骤: 1. 下载整合包:可以从。 2. 复制启动器到下载仓库的目录下。 3. 打开启动器,可一键启动。如果有其他需求,可以在高级选项中调整配置。 显存优化根据显卡实际显存选择,不要超过当前显卡显存。xFormers 能极大地改善内存消耗和速度,建议开启。 4. 准备工作完毕后,点击一键启动即可。等待浏览器自动跳出,或是控制台弹出本地 URL 后说明启动成功。 如果报错提示缺少 Pytorch,则需要在启动器中点击配置。 5. Stable Diffusion webui 的更新比较频繁,请根据需求在“版本管理”目录下更新,同时注意插件的更新。 在 webui 的“扩展”选项卡下,可以安装插件。点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。安装完毕后,需要重新启动用户界面。 具体安装方法: 1. 打开整合包链接(https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,提取码:caru),下载《1.整合包安装》,存放到电脑本地。 2. 打开保存到电脑里的文件夹。 3. 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 4. 选择解压到 D 盘或者 E 盘(避免 C 盘被占满),点击确定。 5. 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 6. 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,选择桌面快捷方式,方便下次进入。 7. 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择。 8. 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等待 SD 的主界面在网页上自动弹出。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。
2025-04-12
如何部署自己私人AI
部署自己私人 AI 可以参考以下几种方式: 通过云服务器、dify、智能微秘书来免费搭建微信机器人: 1. 在宝塔面板的终端安装相关命令,这些命令位于/root/dify/docker 目录下。 2. 检查运行的容器数量,若 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 以解决。 3. 在浏览器地址栏输入公网 IP(去掉后面的:8888),进入后邮箱密码随便填,建立知识库并进行设置。 4. 选择模型,国内模型有免费额度可选,如智谱 ai,获取钥匙并复制保存,创建应用进行测试和发布。 基于 Hook 机制的微信 AI 机器人: 1. 将 Administrators 改成“wxid_dna83ykqawl222”。 2. 若有 FastGPT 或者 OpenAI 的 key,将 Ai_Lock 修改成“1”,并在 OpenAI 处添加模型 key;若没有,保持 Ai_Lock 为 0。 3. 修改后点击保存。 4. 返回 NGCbot 文件夹下,找到 main.py 文件双击运行。 5. 运行后会弹出微信登录框,正常登录微信,等待系统自动初始化必备文件。 6. 运行成功后,用“大号”给机器人发消息,拿到 wxid 并返回替换。 7. 添加完后,用小号登录,大号可对小号发号施令。 部署和训练自己的 AI 开源模型: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身资源、安全和性能需求选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,如开源的 BERT、GPT 等,也可自行训练基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,重视大模型涉及的大量数据和隐私信息的安全性和合规性。 总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-11
DEEP SEEK 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)
以下是关于 Deep Seek 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)的相关内容: 一、使用 Docker + RAGFlow + Ollama 搭建个人/企业知识库 1. 将 Ollama 部署的模型接入 GARFlow 返回 RAGFlow 中,打开右上角设置,进入模型提供商,配置 Ollama 相关信息,基础 URL 按要求设置,设置完成后点击确定。 导入一个 embedding 模型用于文本向量化,导入成功后设置系统模型设置,然后返回知识库创建知识库。 进入数据集,导入文件(可设置文件夹当作知识库),导入完毕后解析文件,解析速度取决于本机 GPU 性能,解析好后进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。 2. 使用 Ollama 本地部署 DeepSeek 模型 先下载 Ollama 程序,官方网址:https://ollama.com/ 。 下载默认到 C 盘(一般为固态盘,运行速度快),若想修改安装目录到 D 盘,后续会有说明。 下载完右下角会出现 Ollama 图标,打开命令行输入相关命令回车。 若显卡是英伟达 2060Super,可选择 Deepseekr1:14b 的模型,根据自身独立显卡性能下载。 下载速度慢可按 Ctrl+C 强制退出重新下载。 下载完毕后再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相关命令,下载好后直接退出终端。 二、Flowith 相关报道、采访、使用指南 |标题|发布账号|社媒来源|日期|链接| |||||| |ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|| |Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力|程序那些事儿|公众号|2024/05/03|| |体验 Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI 兔子洞|公众号|2024/04/22|| |deepseek 服务器繁忙?硅基流不动?看看这篇,内含 18 个平台,可能是最全的 deepseek 方案。|佐佐的 AI 笔记|公众号|2025/02/06|| |满血版自部署 DeepSeekR1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|| |DeepSeek 让 AI 圈卷出了新高度:Flowith 宣布 DeepSeek R1 现在免费提供!|字节笔记本|公众号|2025/01/27|| |ShowMeAI 周刊 No.15|上周最有讨论度的 6 个 AI 话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI 研究中心|公众号|2025/01/21||
2025-04-10
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10