以下是关于 Deep Seek 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)的相关内容:
一、使用 Docker + RAGFlow + Ollama 搭建个人/企业知识库
将 Ollama 部署的模型接入 GARFlow
使用 Ollama 本地部署 DeepSeek 模型
二、Flowith 相关报道、采访、使用指南 |标题|发布账号|社媒来源|日期|链接| |-|-|-|-|-| |ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|https://mp.weixin.qq.com/s/1JzOtqhg9V2WsSxHK5BnDg| |Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力|程序那些事儿|公众号|2024/05/03|https://mp.weixin.qq.com/s/kUsh_XXAuW-jlfCPOusI1A| |体验 Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI 兔子洞|公众号|2024/04/22|https://mp.weixin.qq.com/s/ZL_hIRItkF9QwfXjwTZnEg| |deepseek 服务器繁忙?硅基流不动?看看这篇,内含 18 个平台,可能是最全的 deepseek 方案。|佐佐的 AI 笔记|公众号|2025/02/06|https://mp.weixin.qq.com/s/IXm91mPSrEWZvpsbXex0tg| |满血版自部署 DeepSeek-R1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|https://mp.weixin.qq.com/s/B5f683SOVeTvn_fE1fyRLQ?poc_token=HK2DvWejxeRJx0GZAidbAvYiRGHCX5ej9LGocY5j| |DeepSeek 让 AI 圈卷出了新高度:Flowith 宣布 DeepSeek R1 现在免费提供!|字节笔记本|公众号|2025/01/27|https://mp.weixin.qq.com/s/hxOeSZ28HJPbc70977fXCg| |ShowMeAI 周刊 No.15|上周最有讨论度的 6 个 AI 话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI 研究中心|公众号|2025/01/21|https://mp.weixin.qq.com/s/-MEEo36ZxkZBalDBZ4DPnQ|
我们返回RAGFlow中,打开右上角设置,进入模型提供商,显示如下界面接着我们就开始配置我们本地部署的DeepSeek模型选择Ollama,配置如下信息,模型是什么取决你运行的模型是什么基础URL如下配置设置完成之后,点击确定即可,然后显示如下界面那么再导入一个embedding模型,这个嵌入模型可以用于文本的向量化导入成功之后,界面如下接着我们设置系统模型设置设置好后,就可以返回知识库,进行创建知识库了进入数据集,导入文件即可,当然可以设置文件夹当作知识库,大家自行设置导入完毕之后,需要将文件进行解析之后,大模型才会懂得文件内容是什么。可以批量进行解析,文件解析速度按照你本机的GPU性能,即显卡的性能,越好的显卡,解析越快,越差则反之解析好之后,进入检索测试即可测试没有问题,那么对于文件来说,模型是可以进行检索的,下一步就可以进入聊天界面了助理设置可以自行进行设置那么本章小节的RAGFlow部署到此结束了,想深入去玩这个框架的可以自行去摸索。如果还需要我深入去编写的,可以进行留言噢!!
|标题|发布账号|社媒来源|日期|链接||-|-|-|-|-||ChatGPT的对话框过时了?这款AI产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|[https://mp.weixin.qq.com/s/1JzOtqhg9V2WsSxHK5BnDg](https://mp.weixin.qq.com/s/1JzOtqhg9V2WsSxHK5BnDg)||Flowith:革新你的工作方式,体验节点式AI的超流畅生产力|程序那些事儿|公众号|2024/05/03|[https://mp.weixin.qq.com/s/kUsh_XXAuW-jlfCPOusI1A](https://mp.weixin.qq.com/s/kUsh_XXAuW-jlfCPOusI1A)||体验Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI兔子洞|公众号|2024/04/22|[https://mp.weixin.qq.com/s/ZL_hIRItkF9QwfXjwTZnEg](https://mp.weixin.qq.com/s/ZL_hIRItkF9QwfXjwTZnEg)||deepseek服务器繁忙?硅基流不动?看看这篇,内含18个平台,可能是最全的deepseek方案。|佐佐的AI笔记|公众号|2025/02/06|[https://mp.weixin.qq.com/s/IXm91mPSrEWZvpsbXex0tg](https://mp.weixin.qq.com/s/IXm91mPSrEWZvpsbXex0tg)||满血版自部署DeepSeek-R1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|[https://mp.weixin.qq.com/s/B5f683SOVeTvn_fE1fyRLQ?poc_token=HK2DvWejxeRJx0GZAidbAvYiRGHCX5ej9LGocY5j](https://mp.weixin.qq.com/s/B5f683SOVeTvn_fE1fyRLQ?poc_token=HK2DvWejxeRJx0GZAidbAvYiRGHCX5ej9LGocY5j)||DeepSeek让AI圈卷出了新高度:Flowith宣布DeepSeek R1现在免费提供!|字节笔记本|公众号|2025/01/27|[https://mp.weixin.qq.com/s/hxOeSZ28HJPbc70977fXCg](https://mp.weixin.qq.com/s/hxOeSZ28HJPbc70977fXCg)||ShowMeAI周刊No.15|上周最有讨论度的6个AI话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI研究中心|公众号|2025/01/21|[https://mp.weixin.qq.com/s/-MEEo36ZxkZBalDBZ4DPnQ](https://mp.weixin.qq.com/s/-MEEo36ZxkZBalDBZ4DPnQ)|
先下载Ollama程序官方网址:https://ollama.com/有点大,需要稍等一会默认是下载到C盘,因为C盘一般为固态盘,运行速度快,大致应该是需要2个G,想要修改安装目录到D盘,后续会增加说明下载完之后,右下角会出现Ollama的图标打开命令行输入如下命令回车即可我这里的显卡是英伟达2060Super,所以就选择了Deepseek-r1:14b的模型,大家根据自己的独立显卡的性能进行下载如果下载速度变得非常慢,可以按Ctrl+C继续强制退出,重新进行下载下载完毕之后,如下图,即下载并运行成功然后我们再下载一个嵌入模型Ollama的bge模型官方网址:https://ollama.com/library/bge-m3输入如下命令下载好后,直接退出终端即可