Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

DEEP SEEK 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)

Answer

以下是关于 Deep Seek 本地部署(Olama + ChatBox)+私有知识库(cherrystudio)的相关内容:

一、使用 Docker + RAGFlow + Ollama 搭建个人/企业知识库

  1. 将 Ollama 部署的模型接入 GARFlow

    • 返回 RAGFlow 中,打开右上角设置,进入模型提供商,配置 Ollama 相关信息,基础 URL 按要求设置,设置完成后点击确定。
    • 导入一个 embedding 模型用于文本向量化,导入成功后设置系统模型设置,然后返回知识库创建知识库。
    • 进入数据集,导入文件(可设置文件夹当作知识库),导入完毕后解析文件,解析速度取决于本机 GPU 性能,解析好后进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。
  2. 使用 Ollama 本地部署 DeepSeek 模型

    • 先下载 Ollama 程序,官方网址:https://ollama.com/ 。
    • 下载默认到 C 盘(一般为固态盘,运行速度快),若想修改安装目录到 D 盘,后续会有说明。
    • 下载完右下角会出现 Ollama 图标,打开命令行输入相关命令回车。
    • 若显卡是英伟达 2060Super,可选择 Deepseek-r1:14b 的模型,根据自身独立显卡性能下载。
    • 下载速度慢可按 Ctrl+C 强制退出重新下载。
    • 下载完毕后再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bge-m3 ,输入相关命令,下载好后直接退出终端。

二、Flowith 相关报道、采访、使用指南 |标题|发布账号|社媒来源|日期|链接| |-|-|-|-|-| |ChatGPT 的对话框过时了?这款 AI 产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|https://mp.weixin.qq.com/s/1JzOtqhg9V2WsSxHK5BnDg| |Flowith:革新你的工作方式,体验节点式 AI 的超流畅生产力|程序那些事儿|公众号|2024/05/03|https://mp.weixin.qq.com/s/kUsh_XXAuW-jlfCPOusI1A| |体验 Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI 兔子洞|公众号|2024/04/22|https://mp.weixin.qq.com/s/ZL_hIRItkF9QwfXjwTZnEg| |deepseek 服务器繁忙?硅基流不动?看看这篇,内含 18 个平台,可能是最全的 deepseek 方案。|佐佐的 AI 笔记|公众号|2025/02/06|https://mp.weixin.qq.com/s/IXm91mPSrEWZvpsbXex0tg| |满血版自部署 DeepSeek-R1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|https://mp.weixin.qq.com/s/B5f683SOVeTvn_fE1fyRLQ?poc_token=HK2DvWejxeRJx0GZAidbAvYiRGHCX5ej9LGocY5j| |DeepSeek 让 AI 圈卷出了新高度:Flowith 宣布 DeepSeek R1 现在免费提供!|字节笔记本|公众号|2025/01/27|https://mp.weixin.qq.com/s/hxOeSZ28HJPbc70977fXCg| |ShowMeAI 周刊 No.15|上周最有讨论度的 6 个 AI 话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI 研究中心|公众号|2025/01/21|https://mp.weixin.qq.com/s/-MEEo36ZxkZBalDBZ4DPnQ|

Content generated by AI large model, please carefully verify (powered by aily)

References

🐍 Git使用及实战部署

我们返回RAGFlow中,打开右上角设置,进入模型提供商,显示如下界面接着我们就开始配置我们本地部署的DeepSeek模型选择Ollama,配置如下信息,模型是什么取决你运行的模型是什么基础URL如下配置设置完成之后,点击确定即可,然后显示如下界面那么再导入一个embedding模型,这个嵌入模型可以用于文本的向量化导入成功之后,界面如下接着我们设置系统模型设置设置好后,就可以返回知识库,进行创建知识库了进入数据集,导入文件即可,当然可以设置文件夹当作知识库,大家自行设置导入完毕之后,需要将文件进行解析之后,大模型才会懂得文件内容是什么。可以批量进行解析,文件解析速度按照你本机的GPU性能,即显卡的性能,越好的显卡,解析越快,越差则反之解析好之后,进入检索测试即可测试没有问题,那么对于文件来说,模型是可以进行检索的,下一步就可以进入聊天界面了助理设置可以自行进行设置那么本章小节的RAGFlow部署到此结束了,想深入去玩这个框架的可以自行去摸索。如果还需要我深入去编写的,可以进行留言噢!!

详解:flowith

|标题|发布账号|社媒来源|日期|链接||-|-|-|-|-||ChatGPT的对话框过时了?这款AI产品提供了一种很新的聊天方式|爱范儿|公众号|2024/04/29|[https://mp.weixin.qq.com/s/1JzOtqhg9V2WsSxHK5BnDg](https://mp.weixin.qq.com/s/1JzOtqhg9V2WsSxHK5BnDg)||Flowith:革新你的工作方式,体验节点式AI的超流畅生产力|程序那些事儿|公众号|2024/05/03|[https://mp.weixin.qq.com/s/kUsh_XXAuW-jlfCPOusI1A](https://mp.weixin.qq.com/s/kUsh_XXAuW-jlfCPOusI1A)||体验Flowith:探索人机交互从传统聊天对话到画布式知识管理的转变|AI兔子洞|公众号|2024/04/22|[https://mp.weixin.qq.com/s/ZL_hIRItkF9QwfXjwTZnEg](https://mp.weixin.qq.com/s/ZL_hIRItkF9QwfXjwTZnEg)||deepseek服务器繁忙?硅基流不动?看看这篇,内含18个平台,可能是最全的deepseek方案。|佐佐的AI笔记|公众号|2025/02/06|[https://mp.weixin.qq.com/s/IXm91mPSrEWZvpsbXex0tg](https://mp.weixin.qq.com/s/IXm91mPSrEWZvpsbXex0tg)||满血版自部署DeepSeek-R1+知识库+联网搜索,体验下来可能就只剩下这家了!|字节笔记本|公众号|2025/02/12|[https://mp.weixin.qq.com/s/B5f683SOVeTvn_fE1fyRLQ?poc_token=HK2DvWejxeRJx0GZAidbAvYiRGHCX5ej9LGocY5j](https://mp.weixin.qq.com/s/B5f683SOVeTvn_fE1fyRLQ?poc_token=HK2DvWejxeRJx0GZAidbAvYiRGHCX5ej9LGocY5j)||DeepSeek让AI圈卷出了新高度:Flowith宣布DeepSeek R1现在免费提供!|字节笔记本|公众号|2025/01/27|[https://mp.weixin.qq.com/s/hxOeSZ28HJPbc70977fXCg](https://mp.weixin.qq.com/s/hxOeSZ28HJPbc70977fXCg)||ShowMeAI周刊No.15|上周最有讨论度的6个AI话题:自由画布类产品密集更新、多主体一致成发展趋势、AGI、开源…|ShowMeAI研究中心|公众号|2025/01/21|[https://mp.weixin.qq.com/s/-MEEo36ZxkZBalDBZ4DPnQ](https://mp.weixin.qq.com/s/-MEEo36ZxkZBalDBZ4DPnQ)|

🐍 Git使用及实战部署

先下载Ollama程序官方网址:https://ollama.com/有点大,需要稍等一会默认是下载到C盘,因为C盘一般为固态盘,运行速度快,大致应该是需要2个G,想要修改安装目录到D盘,后续会增加说明下载完之后,右下角会出现Ollama的图标打开命令行输入如下命令回车即可我这里的显卡是英伟达2060Super,所以就选择了Deepseek-r1:14b的模型,大家根据自己的独立显卡的性能进行下载如果下载速度变得非常慢,可以按Ctrl+C继续强制退出,重新进行下载下载完毕之后,如下图,即下载并运行成功然后我们再下载一个嵌入模型Ollama的bge模型官方网址:https://ollama.com/library/bge-m3输入如下命令下载好后,直接退出终端即可

Others are asking
生成一份给deepseek的身份提示词,让他帮助我写一份简历
以下是为您生成的给 DeepSeek 的身份提示词,以帮助您写一份简历: 1. 请为我生成一份能够突出我专业技能和工作经验的简历,重点展现我在领域的成就和能力。 2. 帮我撰写一份简历,要体现我丰富的项目经历和解决问题的能力,格式清晰、语言简洁。 3. 为我创作一份简历,突出我的教育背景、所获荣誉以及与目标职位相关的关键技能。 4. 请以吸引人的方式为我生成一份简历,强调我的职业发展历程和对未来工作的规划。 5. 帮我构思一份简历,要包含我在不同工作岗位上的职责和取得的业绩,突出我的个人优势和职业潜力。
2025-04-15
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
我想让DEEPSEEK帮我写一篇论文,题目已经定好了,怎么给他输入指令
以下是给 DeepSeek 输入指令以帮助您写论文的一些建议: 1. 采用结构化提示词: 优先保留专业领域术语和技术词汇,这些术语通常具有高信息价值。 对不同类型的信息设置权重,按优先级排序:任务定义>关键约束>专业术语>定量信息>方法论>背景。 以完整语义单元为基本保留单位,而非单个词语,确保压缩后的内容仍保持语义完整性。 避免详细指导思考过程,让模型自主生成思维链。 2. 高阶能力调用: 文风转换矩阵:例如“用鲁迅杂文风格写职场 PUA 现象”“将产品说明书改写成《史记》列传格式”“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:如行业黑话破解“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略: 创意内容生成。 技术方案论证。 4. 效能增强技巧: 对话记忆管理:包括上下文锚定(如“记住当前讨论的芯片型号是麒麟 9010”)、信息回溯(如“请复述之前确认的三个设计原则”)、焦点重置(如“回到最初讨论的供应链问题”)。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题,使用相应的修正指令。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:使用概念脱敏法(如“用经济学原理类比说明网络审查机制”)或场景移植法(如“假设在火星殖民地讨论该议题”)。 在输入指令时,您需要清晰明确地描述论文的题目、研究目的、主要论点、关键论据、期望的结构和风格等重要信息,以便 DeepSeek 能够为您生成符合要求的内容。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
Deepseek自动生成网站前端页面
以下是关于 DeepSeek 自动生成网站前端页面的相关内容: DeepSeek v3 能力更新后虽能生成炫目的前端页面,但多为静态且实用性有限。可结合飞书多维表格将生成的漂亮前端变为真实的系统,如【智能作业分发系统】。 该系统整体包括用户登陆(可加飞书调查表二维码实现注册)、作业类型、作业详情(含连连看游戏、AI 智能问答、考试系统)。其实现逻辑为用户登陆系统后进入页面看到老师分配的作业分类,选择分类进入作业详情页面,详情页有学习单词发音及三个模块。 对于小白,可用飞书作数据源,通过飞书 API 接口获取内容,用 DeepSeek v3 制作前端+后端(用 Trae 更方便)。获取请求参数时,测试成功后的示例代码中有完整的请求参数和请求体可直接复制使用。创建前后端时,若用 DeepSeek 官网搭建需按代码目录结构创建对应文件(用 Trae 可省略),首次运行可能遇到飞书 API 未正确配置 CORS 导致浏览器拦截请求的问题,V3 会给出修改意见。 此外,Same dev 能像素级复制任意 UI 界面并生成前端代码,支持多种文件格式和技术栈代码,但免费额度消耗快,网站被谷歌标记。360 智脑复现了 DeepSeek 强化学习效果并发布开源模型 LightR114BDS。 AI 时代生存法则:会提需求比会写代码更重要,会开脑洞比会复制粘贴更值钱,真正的大佬都是让 AI 当乙方!
2025-04-13
deepseek写论文
以下是关于 DeepSeek 在不同方面应用的相关信息: 应用场景:包括脑爆活动方案、会议纪要、批量处理客户评论、分析总结复盘内容、生成专业软件使用过程、写小说框架、写论文、写文案、写小红书笔记、写周报、做设计头脑风暴、做网站、分析感情问题等。 优势与不足:在写文方面全面领先,但长文可能太发散、文风用力过猛导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 应对策略:写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成;用 O1 模型对创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。 创作相关:模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征;邀请大家在腾讯频道发布用 AI 写的小说并鉴赏。 发展历程:DeepSeek 历时 647 天在大语言模型(LLM)领域取得突破,发布 13 篇论文。谷歌 CEO 坦言 Deep Seek 的突破标志着 AI 的全球化进程。
2025-04-13
本地用Ollama部署模型,使用哪个ChatBox客户端好?
目前在本地使用 Ollama 部署模型时,没有特别突出或被广泛推荐的特定 ChatBox 客户端。不同的客户端可能在功能、界面和兼容性方面存在差异,您可以根据自己的需求和使用习惯进行选择和尝试。常见的一些客户端包括但不限于 Web 端的简单界面工具,或者一些具有特定功能扩展的桌面应用程序。但具体哪个最适合您,还需要您亲自测试和评估。
2025-03-27
如何在电脑上用chatbox框架,使用ollama搭建deepseek模型
在电脑上使用 Chat Box 框架,通过 Ollama 搭建 DeepSeek 模型的步骤如下: 1. 阿里云百炼平台: 百炼平台的模型广场有各种模型,包括音频理解、视频理解等,通义的一些强模型也在其中。 百炼平台无需部署,可直接使用 DeepSeek R1 模型。 DeepSeek R1 模型的价格与各大平台差不多,有大量免费额度,如 100 万 token,不同版本的模型如 7B、14B、32B 等也送了 100 万 token,LLAVA 限时免费。 使用 DeepSeek R1 模型需要解锁和授权,没有授权按钮的需要对阿里云进行实名认证,可通过支付宝扫码或在右上角头像处进行,共学群里有相关指引。 在首页体验模型页面可对比不同模型的效果,如 V3 和 R1,R1 会先思考,速度较快。 多模态可以识别更多输入信息,如读文件、图片等,而 DeepSeek R1 本身不是多模态模型。 通过模型广场的 API 调用示例获取链接,截断后粘贴到 Chat Box 的设置中,添加自定义提供方,设置模型名称为 DeepSeek R1,并获取 API key。 API key 可删除旧的并重新创建,方便本地软件连接。 2. Docker + RAGFlow + Ollama 搭建: 返回 RAGFlow 中,打开右上角设置,进入模型提供商。 选择 Ollama,配置相关信息,模型取决于运行的模型。 配置基础 URL。 导入一个 embedding 模型,用于文本向量化。 设置系统模型设置。 进入数据集,导入文件,可设置文件夹当作知识库。 对文件进行解析,解析速度取决于本机 GPU 性能。 解析好之后,进入检索测试。 测试没问题,可进入聊天界面,助理设置可自行设置。 对于开源模型,如 DeepSeek、Llama 等,可以使用以下方式: 1. Inference Provider:使用 Together AI 等推理服务提供商,在线体验和调用各种开源模型。 2. LM Studio:使用 LM Studio 等本地应用程序,在个人电脑上运行和部署较小的开源模型。
2025-03-03
Chatbox
以下是关于 Chatbox 和 Github 热门提示词框架扩展的相关内容: Chatbox 的 Apply 应用: 在我们的中可阅读更多关于如何构建即时申请的信息。 Cursor 的 Apply 允许您将聊天中的代码块建议快速集成到您的代码中。要应用代码块建议,可按每个聊天代码块右上角的播放按钮。由于在 Chat 中可以添加最多的上下文并与模型进行最多的来回交流,因此建议使用 Chat+Apply 进行更复杂的 AI 驱动的代码更改。 应用代码块后,您可以浏览差异并接受或拒绝更改。您也可以点击聊天代码块右上角的“接受”或“拒绝”按钮。Ctrl/⌘Enter 键接受,Ctrl/⌘Backspace 键拒绝。 大雨:Github 热门提示词框架扩展: 缘起:结构化的提示词能让交流更顺畅并易得到想要的结果,但框架多且记不住、查找负担大,所以想到用浏览器插件辅助解决。 效果展示:在 GPT 的聊天对话框中会出现小对话框,通过下拉框选择框架、填写内容并发送。好处是降低了使用框架的难度。 安装步骤:先安装 tampmonkey,新建空白脚本并粘贴代码。 使用说明:其逻辑是通过动态加载 github 上的 json 文件创建页面,json 文件是框架的字段。后续可不断加 json 文件,代码开源,可在 github 上 fork 并修改 frameworks 内容。更全面的框架应用可参考。
2025-02-26
chatbox是干什么的?
Chatbox 是一种能够让用户进行交流和获取信息的工具。它具有多种功能和应用场景,例如: 在 OpenAI 中,ChatGPT 作为一款消费级产品,用户可以通过输入提示信息利用其丰富的知识源进行对话,获取各种回答,包括总结书籍内容、撰写文案等,但它也可能存在捏造事实的情况。 生成式 AI Studio 中,创建聊天提示可以与模型进行自由形式的聊天,模型会根据之前的内容和提供的上下文做出响应。同时,Prompt Gallery 能让用户探索生成式 AI 模型在各种用例中的应用。 Cursor Chat 允许用户在编辑器中使用强大的语言模型提出问题或解决代码库中的问题,它具有多项内置功能来提供上下文,默认位于 AI 窗格中,可通过特定按键切换和提交查询。
2025-02-20
如何搭建 chatbox 敏感词库
很抱歉,目前知识库中没有关于如何搭建 chatbox 敏感词库的相关内容。但一般来说,搭建 chatbox 敏感词库可以考虑以下步骤: 1. 明确敏感词的范畴和类型,例如涉及政治、色情、暴力、辱骂等方面的词汇。 2. 收集相关的敏感词汇,可以通过参考行业标准、法律法规、用户反馈以及其他类似平台的经验。 3. 对收集到的敏感词进行分类和整理,以便于管理和更新。 4. 利用合适的技术和工具,将敏感词库集成到 chatbox 的系统中,实现实时检测和处理。 5. 定期更新和维护敏感词库,以适应不断变化的语言环境和用户需求。 以上是一个大致的搭建思路,具体的实施还需要根据您的实际情况和技术条件进行调整和优化。
2024-12-03
how to build an AI chatbox
以下是关于如何搭建 AI 聊天框的一些指导: 1. 纯 GPT 大模型能力的微信聊天机器人搭建 配置腾讯云轻量应用服务器。 假设要对接的微信号名称叫安仔机器人,更新最终版的配置参数(GROUP_NAME_WHITE_LIST 参数记得根据要交互的群组进行具体修改),查看无误后点击保存,创建编排模板。 切换到容器编排界面,基于创建的模板进行 COW 服务部署,点击添加后等待部署成功。 2. 利用大型语言模型打造聊天机器人 ChatGPT 是具有交互式聊天界面的 Web 应用,可利用大型语言模型构建自定义聊天机器人,如为餐厅扮演 AI 客户服务代理或 AI 点餐员等角色。 设置 OpenAI Python 包,定义两个辅助函数:getCompletion 函数和 generateResponse 函数。通过这两个函数与 AIGPT 模型进行交互并生成对话。 3. Cursor Chat 概述 Cursor Chat 允许在编辑器中使用强大的语言模型在代码库中提问或解决问题。 语言模型要给出好答案需要知道与代码库相关的特定事物即上下文,Cursor 具有多项内置功能提供上下文,如自动包含整个代码库中的上下文、搜索 Web、索引文档和用户指定的代码块引用等。 默认情况下,Cursor Chat 位于 AI 窗格,可通过按 Ctrl/⌘ + L 切换,打开时按 Enter 提交查询。
2024-10-19