对于 DeepSeek 本地私有化部署,以下是详细的指南:
一、企业级部署前的准备
在进行企业级部署之前,首先需要根据实际业务场景评估所需部署的模型规格以及所需的服务器资源,即进行资源预估。同时,还需要评估业务场景是否需要对模型进行二次开发。
二、Ollama 部署 DeepSeek
Ollama 安装 Ollama 是本地运行大模型的工具,支持在 Mac、Linux、Windows 上下载并运行对应的模型。安装完成后,在对应的命令行输入,若输出 Ollama version is 0.5.7,则表示安装成功。
DeepSeek 模型安装 Ollama 安装成功后,访问 Ollama 的官网查找要安装的模型。选择适合当前机器配置的模型参数,然后拷贝对应的执行命令。命令行终端直接执行对应的命令,若出现相应对话内容,表示当前 DeepSeek 已在本地可正常运行。
nomic-embed-text 模型安装 还需要部署 nomic-embed-text 模型,这是一个文本向量化的模型,主要用于后续基于 Dify 做向量化检索时使用。
部署图形化客户端 部署完 DeepSeek 后,若想使用图形化工具聊天,可选择多种 UI 工具,如 ChatBox 客户端、AnythingLLM 客户端、Open WebUI 客户端、Cherry Studio 客户端、Page Assist 客户端等。以 ChatBox 为例,直接访问其官网下载对应的客户端,在 ChatBox 的设置中填写 Ollama API 的地址和对应的模型名称,保存后即可在新对话框中选择要运行的模型开始对话。
三、部署 Dify
Dify 介绍 Dify 是一款开源的大语言模型应用开发平台,融合了后端即服务和 LLM Ops 的理念,即使是非技术人员也能参与到 AI 应用的定义和数据运营过程中。
运行 Dify Dify 的部署需要本地先支持 Docker 和 Git 的依赖环境,然后在对应的终端直接执行相关代码即可运行。
添加模型 Dify 启动成功后,浏览器访问 http://localhost ,新建账号密码。在右上角 admin 处点击设置,新增本地模型配置。添加 LLM 模型为 deepseek-r1:7b,基础 URL 为 http://host.docker.internal:11434 。同时添加之前安装的 nomic-embed-text 模型,添加完成后可在模型列表中看到已添加的模型信息。
对于个人开发者或尝鲜者而言,本地想要部署DeepSeek有很多种方案,但是一旦涉及到企业级部署,则步骤将会繁琐很多。比如我们的第一步就需要先根据实际业务场景评估出我们到底需要部署什么规格的模型,以及我们所要部署的模型,到底需要多少服务器资源来进行承接,也就是资源预估先行。预估完我们的服务器资源以后,还需要评估我们的业务场景是否需要二次开发模型。如果只是简单的微调模型就可以符合我们的业务需求,那么使用Ollama、LM Studio、GTP4All或许就可以满足我们的诉求。但是如果需要对模型进行定制化开发,则需要考虑进行模型的原生部署。所以本篇文章主要解决四个问题:1.如何合理评估我们的服务器资源2.Ollama部署指定版本的DeepSeek3.原生部署DeepSeek4.搭建Dify构建企业内的私有知识库、工作流
Ollama是本地运行大模型的一款工具,支持在Mac、Linux、Windows上下载并运行对应的模型。[heading2]Ollama安装[content]Ollama安装完成后,在对应的命令行输入:此时输出Ollama version is 0.5.7,则表示安装成功。[heading2]DeepSeek模型安装[content]Ollama安装成功后则访问Ollama的官网查找我们要安装的模型1、[访问Ollama官网](https://ollama.com/library/deepseek-r1:7b)2、选择适合当前机器配置的模型参数,然后拷贝对应的执行命令即可1.命令行终端直接执行对应的命令恭喜!出现上述的对话内容,表示当前DeepSeek已经在你本地可以正常运行了。[heading2]nomic-embed-text模型安装[content]此时我们需要另外再部署一个新的模型,nomic-embed-text,这是一个文本向量化的模型,主要是后续基于Dify做向量化检索时使用。[heading2]部署图形化客户端[content]有些同学在部署完DeepSeek后就想直接找个UI工具和DeepSeek聊天了,而不是一直在对应的命令行工具中聊天。此时我们直接部署一套UI工具,连接我们的DeepSeek模型即可。可以连接DeepSeep模型的UI工具有很多:1.ChatBox客户端(图形化界面)支持Web网页,也支持本地客户端。2.AnythingLLM客户端(图形化界面)3.Open WebUI客户端(图形化界面)支持Web网页,类似ChatGPT。4.Cherry Studio客户端(图形化界面)5.Page Assist客户端(浏览器扩展)支持「联网搜索」此时我们以ChatBox为例,直接访问对应的[官网](https://chatboxai.app/zh)下载对应的客户端即可下载完成后我们在ChatBox的设置中填写Ollama API的地址和对应的模型名称,然后保存即可。然后我们直接打开一个新的对话框,选择要运行的模型即可开始对话。
Dify是一款开源的大语言模型(LLM)应用开发平台。它融合了后端即服务(Backend as Service)和LLMOps的理念,使开发者可以快速搭建生产级的生成式AI应用。即使你是非技术人员,也能参与到AI应用的定义和数据运营过程中。由于Dify内置了构建LLM应用所需的关键技术栈,包括对数百个模型的支持、直观的Prompt编排界面、高质量的RAG引擎、稳健的Agent框架、灵活的流程编排,并同时提供了一套易用的界面和API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。简单来说如果你想使用模型构建自己的RAG知识引擎或者流程编排,那你少不写一堆LangChain的代码,但是Dify将这块业务进行了封装,你只需要在可视化的页面上操作,便可以实现相同的效果,快速的构建出自己的AI应用。[heading2]运行Dify[content]Dify的部署需要我们本地先支持Docker和Git的依赖环境,然后我们在对应的终端直接执行下面的代码,便可以直接运行Dify[heading2]添加模型[content]Dify启动成功后,我们直接浏览器访问:[http://localhost](http://localhost/)此时进入到Dify的主页面会提示新建账号密码,账号密码新建完成后,在右上角admin处点击设置,然后新增我们的本地模型配置。此处添加LLM模型为deepseek-r1:7b,基础URL为:[http://host.docker.internal:11434](http://host.docker.internal:11434/)添加完LLM模型后,我们再新增一个Text Embedding模型,还记得最开始我们使用ollama还安装了一套nomic-embed-text模型吗?对的,就是在这里使用的。两个模型都添加完以后,就可以在模型列表中看到我们已经添加的模型信息了