Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如果不是英伟达显卡,可以本地部署SD吗?

Answer

如果不是英伟达显卡,一般不建议本地部署 SD。

SD 的安装要求如下:

  1. 系统需为 Win10 或 Win11。
  2. 查看电脑配置:
    • 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。
    • 查看电脑配置:检查自己的电脑配置能否带动 SD(Stable Diffusion),需要满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。
    • 查看电脑运行内存:打开任务管理器(同时按下 ctrl+shift+esc),8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。
    • 查看电脑显卡内存(显存):4GB 显存可运行 SD,推荐 8GB 以上显存。
  3. 配置达标可跳转至对应安装教程页:1.Win 系统 SD 安装
  4. 配置不够可选择云端部署(Mac 也推荐云端部署):3.SD 云端部署
  5. 备选:SD 好难,先试试简单的无界 AI:图像类-无界 AI 使用教程

另外,Fooocus 是 SD 的相关产品,其使用的是最新推出的 SDXL 1.0 模型,对 stable diffusion 和 Midjourney 做了结合升级。Fooocus 本地部署的配置要求为:需要不低于 8GB 的内存和 4GB 的英伟达显卡。Fooocus 介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G) ,使用指南:https://github.com/lllyasviel/Fooocus/discussions/117 ,大模型(base 和 Refiner)默认放在这里:\Fooocus_win64_1-1-10\Fooocus\models\checkpoints 。

SD 云端部署的流程如下:

  1. 安装和配置基础环境:浏览器上按照腾讯云->控制台->云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。
  2. 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。
  3. 配置环境变量:驱动安装完成后,开始配置环境变量。首先找到驱动安装所在的目录,如果没有特殊设定,一般是在「C:\Program Files\NCIDIA Corporation」,复制这个路径,找到环境变量配置入口(控制面板->系统和安全->系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,将刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。
Content generated by AI large model, please carefully verify (powered by aily)

References

0. SD的安装

①系统需为Win10、Win11②Win系统查看配置③配置达标跳转至对应安装教程页[1.Win系统SD安装](https://qa3dhma45mc.feishu.cn/wiki/D5nawAs1fivF4ykx88ucRIYwn1d)④配置不够可选择云端部署(Mac也推荐云端部署)[3.SD云端部署](https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd)⑤备选:SD好难,先试试简单的无界AI:[图像类-无界AI使用教程](https://qa3dhma45mc.feishu.cn/wiki/LRdOw75tQiN3wAkU43ucwb5Ondd)[heading2]Win系统查看配置[content]Win10和Win11一样没区别[heading3]查看电脑系统:[content]在桌面上找到“我的电脑”一鼠标右键点击一一点击"属性”一一查看Windows规格[heading3]查看电脑配置:[content]这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求(推荐):电脑运行内存8GB以上是英伟达(NVIDA)的显卡显卡内存4GB以上①打开任务管理器:同时按下ctrl+shift+esc②查看电脑运行内存8GB运行内存可以勉强运行SD推荐16GB以上运行内存③查看电脑显卡内存(显存)4GB显存可运行SD,推荐8GB以上显存

【SD】SD的大哥Fooocus重磅问世,三步成图傻瓜式操作

Fooocus使用的是最新推出的SDXL 1.0模型,对stable diffusion和Midjourney做了结合升级:1、保留了SD的开源属性,可以部署到本地免费使用;2、在操作界面吸取了midjourney简洁,省去了WebUI中复杂的参数调节,让用户可以专注于提示和图像。下图就是Fooocus的操作界面。翻译一下:只有图像展示窗口、正向提示词和生成按钮3项。勾选“Advanced”会弹出高级设置的窗口,可以调整画面宽高比、风格、图像数量、种子值、反向提示词、模型、lora权重比值、图像锐利程度等。风格选项这一块是整合了各种常见的画面风格供选择,包含了100多种不同的预设风格,涉及写实、胶片、电影质感、动漫、水彩、黏土、3D、等距、像素、霓虹、赛博朋克、波普、纸艺等各个方面:高级选项这部分是用于设置模型,lora,清晰度等。非常简单且容易上手,很值得试一试。二、Fooocus安装:配置要求:本地部署,需要不低于8GB的内存和4GB的英伟达显卡。Fooocus介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G)使用指南:https://github.com/lllyasviel/Fooocus/discussions/117大模型(base和Refiner)默认放在这里:\Fooocus_win64_1-1-10\Fooocus\models\checkpoints

2. SD云端部署

浏览器上按照腾讯云->控制台->云服务器的路径找到你刚才购买的实例点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的Windows系统环境,接下来安装显卡驱动、配置环境变量即可。[heading3]3.1安装显卡驱动[content]用内置的IE(也可下载Chrome,就是个电脑可以随便造),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows版本号,下载对应的驱动,然后安装上。[heading3]3.2配置环境变量[content]驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\Program Files\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板->系统和安全->系统),选择「高级系统设置」,弹窗设置环境变量找到「系统变量」里的Path环境变量,点击「编辑...」然后「新建」,帮刚才复制的nvidia驱动安装地址粘贴进去,保存即可。

Others are asking
我的电脑显卡是1060 5g,可以使用ai软件吗
1060 5G 显卡可以使用一些 AI 软件,但性能可能会受到一定限制。对于一些对显卡性能要求不太高的 AI 应用,例如简单的图像识别、文本处理等,您的显卡能够满足基本需求。然而,对于较为复杂的 AI 任务,如大规模的深度学习模型训练、高质量的 AI 绘画生成等,可能会出现运行速度较慢、效果不理想的情况。 如果您只是初步尝试使用 AI 软件,或者进行一些轻度的应用,您的显卡或许可以胜任。但如果您有更专业、高强度的使用需求,可能需要考虑升级显卡以获得更好的性能体验。
2024-11-10
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06
a800 ,H100,a10,H800这4个显卡能力有啥差异
以下是 A800、H100、A10、H800 这 4 个显卡在能力上的一些差异: 在训练与推理方面: 对于大型模型的训练,许多模型在 NVIDIA H100 上最具成本效益,但获取在 NVIDIA H100 上运行的模型较难,且通常需要长期合作承诺。如今更多的选择是在 NVIDIA A100 上运行大多数模型训练,但对于大型集群仍需要长期承诺。 大型语言模型(LLM)的参数数量众多,通常需要分布到多个卡中,即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(例如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10 等显卡。 在内存要求方面: 大型 LLM 的参数数量太多,任何单卡都无法容纳,需要类似于训练的多卡设置。 对于一些较小的模型,A10 等显卡可能就能够满足其内存需求。 需要注意的是,决定选择哪种 GPU 主要是一个技术决策,需要根据具体应用来确定最具成本效益的选择。
2024-10-16
如何让COMFYUI使用我的INTEL A770显卡?
要让 ComfyUI 使用您的 INTEL A770 显卡,以下是一些相关的步骤和信息供您参考: 首先,ComfyUI 本地安装的方法主要有以下几种: 1. 命令行安装: 如果您已经安装过 SD WebUI,可以跳到第二步。首先需要打开系统 Terminal,不同系统的 Terminal 可能有所不同。 Windows 用户:建议在有 NVIDIA 显卡的电脑上使用。需要下载 Miniconda3,输入相关命令进行安装,然后安装 pytorch 的 nightly 版本。 Mac 用户:安装需要根据电脑芯片不同输入不同代码。下载 Miniconda3 并输入相关命令进行安装,最后安装 pytorch。 2. 安装包安装:仅支持 Windows 系统且显卡必须是 Nivida。下载地址是,下载最新版本解压即可使用。 关于 ComfyUI 的硬件配置: ComfyUI 相比 WebUI 配置更低、系统资源占用更少、出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。 需要注意的是,目前 ComfyUI 对于 INTEL A770 显卡的支持情况可能不太明确,您可能需要根据实际情况进行尝试和调整。
2024-10-10
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
部署私有大模型需要什么显卡
部署私有大模型对显卡的要求如下: 显存是显卡选择的第一要素,生成速度优先级相对较低。 SD1.5 版本的底模 6G 显存能勉强跑,8G 显存可较流畅生成图片和炼制 lora,12G 能流畅使用 Dreambooth 微调大模型。 即将到来的 SDXL 对显卡性能要求更高,8G 显存起步,建议 16G 显存,微调大模型可能需要 20G 以上的显存,只有 4090 和 3090 能较好应对。 预算不足时,可选择 30 系显卡或二手显卡。但不建议选择 P40 之类超大显存但速度超级慢的卡。 常见显卡中,4090 生成 512 的图可跑进 1 秒内。 对于一些垂直场景的专有技能模型,极端情况下单机单卡,如消费级显卡 3090、3080、RTX 显卡也可以使用。 综合多方评测结论,4090 是用于 SD 图像生成综合性价比最高的显卡。如果有打算进行 Dream booth 微调大模型,硬盘空间要准备充足,一次训练可能会产生几十 G 的文件。同时,其他电脑配件只要不太差即可,内存建议 32GB 以上。硬盘方面,不建议考虑机械盘,可选择国产固态。
2024-09-08
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
开源模型的MIT模式、Apache、GPL、BSD模式的模型案例有哪些?
目前开源模型的 MIT 模式、Apache、GPL、BSD 模式的具体案例众多且不断更新。MIT 模式的开源模型如 TensorFlow Lite;Apache 模式的有 MXNet;GPL 模式的像 Gnuplot;BSD 模式的例如 OpenCV 等。但请注意,这只是其中的一部分,实际情况可能会有所变化。
2025-02-14
开源模型的MIT模式、Apache、GPL、BSD模式的定义和区别
MIT 模式:这是一种相对宽松的开源许可模式。允许使用者对软件进行修改、再发布,并且几乎没有限制,只要求在再发布时保留原版权声明和许可声明。 Apache 模式:提供了较为宽松的使用条件,允许修改和再发布代码,但要求在修改后的文件中明确注明修改信息。同时,还包含一些专利相关的条款。 GPL 模式:具有较强的传染性和约束性。如果基于 GPL 许可的代码进行修改和再发布,修改后的代码也必须以 GPL 许可发布,以保证代码的开源性和可共享性。 BSD 模式:也是一种较为宽松的许可模式,允许使用者自由地修改和再发布代码,通常只要求保留原版权声明。 总的来说,这些开源许可模式在对使用者的限制和要求上有所不同,您在选择使用开源模型时,需要根据具体需求和项目情况来确定适合的许可模式。
2025-02-14
可以不学sd而是直接学comfyui
学习 ComfyUI 而不先学习 SD 是可行的。ComfyUI 具有一些独特的优势,例如更接近 SD 的底层工作原理,能够实现自动化工作流以消灭重复性工作,作为强大的可视化后端工具还能实现 SD 之外的功能,如调用 API 等,并且可根据定制需求开发节点或模块。 比如,有人基于 ComfyUI 中的创建了工作流,不仅能用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。 在电脑硬件方面,使用 ComfyUI 时,系统要求 Windows7 以上,显卡要求 NVDIA 独立显卡且显存至少 4G 起步,硬盘需留有至少 100G 空间(包括模型)。但 mac 系统、AMD 显卡、低显卡的情况也能安装使用,只是功能不全、出错率偏高,严重影响使用体验,建议升级设备或采用云服务器。
2025-02-08
除了SD,有哪些方便快捷的网站可以用的?
以下是一些方便快捷的 AI 相关网站: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/ 3. 哩布哩布 AI:其在线 SD 界面和本地部署界面区别不大,每天有一百次生成次数,且已集成最新的 SDXL 模型。 4. Clipdrop:https://clipdrop.co/stablediffusion ,和 midjourney 的使用方法相似,每天免费 400 张图片,需排队,出四张图约二三十秒。 此外,还有一些 AI 视频相关的网站: 1. SVD:https://stablevideo.com/ ,对于景观更好用。 2. Morph Studio:https://app.morphstudio.com/ ,还在内测。 3. Heygen:https://www.heygen.com/ ,数字人/对口型。 4. Kaiber:https://kaiber.ai/ 5. Moonvalley:https://moonvalley.ai/ 6. Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 7. 美图旗下:https://www.miraclevision.com/ 8. Neverends:https://neverends.life/create ,操作傻瓜。 9. Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 10. Krea:https://www.krea.ai/ 11. Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 12. Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 13. invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 14. descript:https://www.descript.com/?ref=feizhuke.com 15. veed.io:https://www.veed.io/ ,自动翻译自动字幕。 16. clipchamp:https://app.clipchamp.com/ 17. typeframes:https://www.revid.ai/?ref=aibot.cn
2025-02-04
英伟达H200芯片
英伟达 H200 芯片具有以下特点: 推理速度是前代 H100 的两倍。 使用 HBM3e 内存,显存带宽提升至 4.8TB。 NVIDIA 创始人兼首席执行官黄仁勋在 SIGGRAPH 会议上宣布了相关信息,包括下一代 GH200 Grace Hopper 超级芯片平台。Grace Hopper 超级芯片 NVIDIA GH200 已于 5 月份全面投入生产,将具备连接多个 GPU 的能力。Nvidia 还在与 HuggingFace 合作,帮助开发人员在任何云上创建、测试和微调生成式 AI 模型。现在,可以使用 Nvidia 的 Omniverse 以 USD 格式生成 AI 内容,以创建虚拟世界,它包括与 Adobe、Wonder Dynamics 和 Luma AI 等多种 AI 相关的集成。 相关链接:https://x.com/xiaohuggg/status/1724239489302974768?s=20
2024-11-06
英伟达H200
英伟达 H200 是英伟达推出的一款 AI 芯片。其推理速度是前代 H100 的两倍,使用 HBM3e 内存,显存带宽提升至 4.8TB 。NVIDIA 创始人兼首席执行官黄仁勋在 SIGGRAPH 会议上宣布了相关信息,GH200 已于 5 月份全面投入生产,将具备连接多个 GPU 的能力。Nvidia 还正在与 HuggingFace 合作,帮助开发人员在任何云上创建、测试和微调生成式 AI 模型。 相关链接:https://x.com/xiaohuggg/status/1724239489302974768?s=20
2024-10-29
英伟达数字员工
以下为一些英伟达数字员工相关的信息及典型案例: |名字|描述|性别|附件|框架|链接| ||||||| |Hóng|红杉中国首位数字员工,每秒可看百份商业计划书|女||小冰|| |Yumi|SKII 的品牌虚拟形象|女|||| |冯小殊|北京冬奥会气象播报员,数字孪生人|男||小冰|| |夏语冰|中央美术学院研究生,师从邱志杰教授|女||小冰|| |屈晨曦|屈臣氏的品牌虚拟形象|男||小冰|| |度晓晓|百度数字人|女||曦灵数字人|| |星瞳|QQ 炫舞系列虚拟代言人|女|||| |柳夜熙|一个会捉妖的虚拟美妆达人|女|||| |洛天依|中国内地虚拟歌手|女|||| |翎|虚拟偶像|女||魔珐数字人|| 另外,句子互动致力于打造大模型驱动的领先数字员工。关于 AI 智能体,个人理解其相当于为个人提效的数字员工,您可以像老板给员工下达任务一样,通过清晰的目标和提示词让其为您工作,并且不断寻求反馈以实现目标。
2024-10-25
anythingLLM和RAG Flow哪个部署更容易
RAG Flow 和 LLM 的部署难易程度如下: RAG Flow: 公网 MaaS:通常只需要一个 API key 即可对接,默认提供了通义千问。比较特殊的是 OpenAI 的接口上提供了修改 endpoint,也就是支持中间商。 本地部署:目前仅支持 Xinference 和 Ollama 方式部署。但是实际上只要是 API 接口一致,对接方式一致都可以用该方式对接。此处基础 Url 只需要写到 v1 为止,不需要写 embeddings 的二级接口。添加模型后需要在“系统模型配置”中设置,方能让模型生效。 LLM:关于 LLM 的部署难易程度,上述内容中未给出直接对比信息。但 Dify.AI 作为一个开源的大规模语言模型应用开发平台,具有快速部署等特点,用户可以在 5 分钟内部署定制化的聊天机器人或 AI 助手。 综合来看,仅根据所提供的信息,难以确切判断 RAG Flow 和 LLM 哪个部署更容易,还需结合更多具体的技术细节和实际需求进行评估。
2025-02-27
个人有没有必要本地部署deepseek模型
个人是否有必要本地部署 DeepSeek 模型取决于多种因素。 DeepSeek 模型的权重文件开源,可本地部署。其公司名为“深度求索”,网页和手机应用目前免费,但 API 调用收费。 在云端模型部署方面,有实操演示和使用方法讲解,包括登录 Pad 控制台、选择框架、资源、出价等,还介绍了查看部署状态和日志的方法,以及用 Postman 在线调试模型获取名称及后续使用方式。 在模型部署相关内容中,部署时使用 V1 chat completion s 接口,要注意模型名称、大小写等。同时布置了作业为成功部署大语言模型并调试,提交带钉钉昵称的截图。还讲解了 API 调用方法、费用、停止服务方式等,提醒注意保密 API key,若竞不到价可加价尝试进行本地蒸馏模型部署。 模型蒸馏方面,先介绍云平台部署情况,接着讲解模型蒸馏概念、方式,阐述其应用场景及修复模型幻觉的作用,并进行了实操演示。 综合来看,如果您对数据隐私有较高要求、需要定制化的模型服务、有足够的技术能力和资源来进行本地部署和维护,或者在网络不稳定的情况下使用,那么本地部署可能是有必要的。但如果您的需求相对简单,且不具备相关技术条件和资源,使用云端服务可能更为便捷。
2025-02-27
ai在档案领域的部署
目前关于 AI 在档案领域的部署,知识库中暂时没有相关内容。但一般来说,AI 在档案领域的部署可能包括利用自然语言处理技术对档案内容进行智能检索和分类,通过机器学习算法对档案的重要性和价值进行评估,以及运用图像识别技术对档案中的图片、图表等进行数字化处理等方面。
2025-02-27
高校如何自己本地部署DEEPSEEK
高校本地部署 DEEPSEEK 可以参考以下内容: 1. 了解相关平台服务差异,如 DLC、DSW 和 EAS 等模型部署平台服务的不同。 2. 如果拥有云服务器,可以进行本地部署,但要注意满血版本地部署的实际情况。 3. 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 4. 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 5. 模型试用可以使用 postman,通过修改接口和复制文档中的内容进行在线调试,发送请求查看状态码,根据模型名称和相关要求输入内容进行试用。 6. 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 7. 实战演练 DeepSeek R1 满血版快速部署和蒸馏训练。 以上信息仅供参考,具体操作可能会因实际情况有所不同。
2025-02-27
Deepseek本地化部署
以下是关于 DeepSeek 本地化部署的相关信息: 在“智能纪要:0225|最新的 DeepSeek 玩法教学 2025 年 2 月 25 日”中提到,明天(02/26 20:00)将教授 DeepSeek 本地部署。 在“第三期「AI 实训营」手把手学 AI【第三期:尝鲜阿里云上的 DeepSeek 玩法】”中,02/26 20:00 的课程主题为“人工智能平台 PAI 篇:本地部署满血版 DeepSeek”,课程内容包括 DeepSeek R1 技术原理、解锁 DeepSeek 的不同玩法(问答助手、蒸馏、微调)以及实战演练 DeepSeek R1 满血版快速部署和蒸馏训练。相关课程文档为
2025-02-26
通义千问私有化部署方案
以下是关于通义千问私有化部署的相关方案: 1. 在 FastGPT+OneAPI+COW 框架下的部署: 回到宝塔,选择 Docker(若显示“当前未安装”则进行安装,否则无需此步)。 点击确定,等待安装完成,完成后刷新页面确认安装成功。 打开左侧【终端】,粘贴两行命令验证 Docker 是否可用。 一条一条复制并粘贴相关命令完成安装。 访问 OneAPI,地址为:http://这里改成你自己宝塔左上角的地址:3001/(举例:http://11.123.23.454:3001/),账号默认 root,密码 123456。 点击【渠道】,类型选择阿里通义千问,名称随意。 将千问里创建的 API Key 粘贴到秘钥里,点击确认。 点击【令牌】【添加新令牌】,名称随意,时间设为永不过期、额度设为无限额度,点击【提交】。 点击【令牌】,复制出现的 key 并保存。 2. 在 Langchain+Ollama+RSSHub 框架下的部署: Ollama 支持包括通义千问在内的多种大型语言模型,适用于多种操作系统,同时支持 cpu 和 gpu。 可通过 https://ollama.com/library 查找模型库,通过简单步骤自定义模型,还提供了 REST API 用于运行和管理模型及与其他应用程序的集成选项。 访问 https://ollama.com/download/ 进行下载安装,安装完之后确保 ollama 后台服务已启动。 3. 在 0 基础手搓 AI 拍立得框架下的部署: 可以选择通义千问作为模型供应商,其指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高。接口调用费用为:调用:¥0.008/千 tokens,训练:¥0.03/千 tokens。可参考 。
2025-02-26