Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何在个人电脑中部署本地RAG

Answer

在个人电脑中部署本地 RAG 可以按照以下步骤进行:

  1. 加载所需的库和模块:
    • 确保 ollama 服务已开启并下载好模型,ollama 用于在 python 程序中跑大模型。
    • feedparse 用于解析 RSS 订阅源。
  2. 从订阅源获取内容:
    • 函数用于从指定的 RSS 订阅 url 提取内容,如需接收多个 url 可稍作改动。
    • 通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,用于进一步的数据处理或信息提取任务。
  3. 为文档内容生成向量:
    • 使用文本向量模型 bge-m3,从 hf 下载好模型后放置在指定路径,如 /path/to/bge-m3,通过函数利用 FAISS 创建一个高效的向量存储。
  4. 创建 Python 虚拟环境:
    • 创建 python 虚拟环境,并安装相关库,版本如下:
      • ollama:0.1.8
      • langchain:0.1.14
      • faiss-cpu:1.8.0(有 gpu 则安装 gpu 版本)
      • gradio:4.25.0
      • feedparser:6.0.11
      • sentence-transformers:2.6.1
      • lxml:5.2.1
  5. 导入依赖库。
  6. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。
  7. 创建网页 UI:通过 gradio 创建网页 UI,并进行评测。
  8. 问答测试:对于同样的问题和上下文,基于 Qwen-7b、Gemma、Mistral、Mixtral 和 GPT-4 分别进行多次测试。 总结:
  9. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。
  10. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。
  11. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

[title]本地部署资讯问答机器人:Langchain+Ollama+RSSHub实现RAG加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

[title]本地部署资讯问答机器人:Langchain+Ollama+RSSHub实现RAG在这种情况下,我们可能会把网站添加到书签栏,然后时不时就会打开看一下,这种做法无疑是比较低效的,一旦网站变多,更是不现实。如果我们能把真正想要关注的信息汇聚在同一个平台上,并且一旦有更新,就能第一时间在各种终端(如电脑、手机、Kindle等)收到提醒,那岂不是美哉。这里,我给大家推荐一个宝藏项目:RSSHubhttps://docs.rsshub.app/zh/感谢RSSHub这个开源项目,它给各种各样的网站生成了RSS源,堪称「万物皆可RSS 」。你能想到的大部分社交媒体(如微博、Twitter、知乎等)、传统媒体(如央视新闻、路透社等)和金融媒体(如财联社、东方财富、格隆汇等),都能够配合RSSHub,进行订阅。通过RSSHub以及其他渠道,我个人维护了一个订阅源,如下:感兴趣的读者,关注本公众号,然后发送rss,即可下载我打包好的RSS订阅源。那么,有了RSS订阅源,我们就可以通过Python解析RSS订阅源来实时获取相关数据。流程拆解有了数据,就意味着成功了一半。|创建Python虚拟环境创建python虚拟环境,并安装相关库,我安装的是当前最新的库,版本如下:ollama:0.1.8langchain:0.1.14faiss-cpu:1.8.0(如果有gpu,则安装gpu版本)gradio:4.25.0feedparser:6.0.11sentence-transformers:2.6.1lxml:5.2.1|导入依赖库

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

[title]本地部署资讯问答机器人:Langchain+Ollama+RSSHub实现RAG基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现RAG。|创建网页UI最后,通过gradio创建网页UI,并进行评测。生成的Web UI如下:需要上述完整代码的读者,关注本公众号,然后发送fin,即可获取github仓库代码链接。问答测试对于同样的问题和上下文,我基于Qwen-7b、Gemma、Mistral、Mixtral和GPT-4分别进行了多次测试。下面是一些case:qwengemmamistralmixtralgpt4主要结论(只是针对有限的几次测试,个人主观评判)如下:👍 GPT-4表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号✌️ Mixtral表现第二,但没有在回答的时候附上引用💪 Qwen-7b表现第三,也没有在回答的时候附上引用😅 Gemma表现一般,而且回答里面有一些幻觉😅 Mistral表现一般,使用英文回复,不过在回答的时候附上了引用段落编号总结1.本文展示了如何使用Langchain和Ollama技术栈在本地部署一个资讯问答机器人,同时结合RSSHub来处理和提供资讯。2.上下文数据质量和大模型的性能决定了RAG系统性能的上限。3.RAG通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源(如维基百科),这些文档作为上下文和原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应解决方案,包括原论文中的 7 个和额外发现的 5 个。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化,是因为 LLM 存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在 RAG 的应用中,可以将其抽象为 5 个过程:文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-02-17
知识库RAG方案
RAG(检索增强生成)是一种在 AI 领域中用于处理知识库的方案。 大模型的训练数据有截止日期,当需要依靠不包含在大模型训练集中的数据时,RAG 是主要方法之一。 RAG 的应用可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 基于 Coze 的知识库问答是典型的 RAG 方案,其重要一环是文档切片。但 RAG 方案存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等。 相关的海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html ,国内官方文档:https://www.coze.cn/docs/guides/use_knowledge 。 在实际操作中,如使用外贸大师产品的帮助文档创建知识库时,要注意文档的分片策略会严重影响查询结果。
2025-02-16
知识库中是否有搭建在线RAG知识库的相关内容?
知识库中有搭建在线 RAG 知识库的相关内容。 RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。 自顶向下,RAG 的流程分为离线数据处理和在线检索两个过程。离线数据处理的目的是构建知识库,知识按某种格式及排列方式存储在其中等待使用。在线检索是利用知识库和大模型进行查询的过程。 对于 RAG 来讲,检索的质量直接影响生成的结果,常见的检索方法有关键词检索和语义检索。关键词检索是最传统和基础的方法,基于查询词与文档中词语的精确或近似匹配,实现简单但难以处理同义词和上下文语义。语义检索将查询和文档映射到同一语义空间,通过计算向量相似度判断相关性,能捕捉深层语义但计算成本较高。 在构建知识库的流程中,在线检索各个流程的“是什么”与“为什么”同等重要。例如在检索环节,选择合适的检索方法或组合对系统性能至关重要。 大模型存在无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高等缺点,而 RAG 具有数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。
2025-02-14
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 的研究人员引入了 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合在一起,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源(如维基百科),这些文档与原始提示词组合后送给文本生成器得到最终输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在本地部署方面,可基于用户问题从向量数据库中检索相关段落,根据阈值过滤,让模型参考上下文信息回答问题来实现 RAG。通过创建网页 UI 并进行评测,如对多种模型进行测试,发现 GPT4 表现最好,上下文数据质量和大模型性能决定 RAG 系统性能上限,RAG 能提升答案质量和相关性,但不能完全消除问题。
2025-02-14
有没有一款AI可以管理个人电脑上存储的各类文件,并且根据这些文件形成个人知识库,方便用户进行搜索、总结、创新等工作?
是的,市面上存在一些AI工具,它们可以帮助管理个人电脑上存储的各类文件,并将这些文件组织成个人知识库,以便于搜索、总结和创新。以下是一些具有这些功能的AI工具或软件: 1. Evernote(印象笔记): 一个流行的笔记应用,支持跨平台同步,可以存储文本、图片、网页和语音等多种形式的内容。 2. Notion: 一个强大的工作区管理工具,支持笔记、数据库、看板、日历等,可以用来组织个人知识库。 3. Obsidian: 一款基于Markdown的知识管理和笔记应用,支持链接思维和网络化知识结构。 4. Zettlr: 一个面向研究人员和作家的笔记工具,支持引用管理和知识图谱。 5. Devonthink: 一款专业的信息管理软件,支持文档索引、全文搜索和AI辅助的自动分类。 6. OneNote(微软OneNote): 微软提供的数字笔记本,支持笔记、绘图和文档整理。 7. Trello: 一个看板式的项目管理工具,也可以用来管理个人知识库。 8. Airtable: 一个灵活的数据库工具,结合了电子表格和数据库的功能,支持丰富的字段类型和自定义视图。 9. Google Keep(谷歌便签): 一个简单的笔记应用,支持文本、图片和语音笔记,可以快速记录想法。 10. Bear: 一款美观的笔记应用,支持Markdown和标签系统,适合个人知识管理。 11. RemNote: 一个专注于学习和记忆的笔记应用,支持双向链接和间隔重复学习。 12. Nuclear: 一个知识管理和搜索工具,支持全文搜索、标签和自定义元数据。 这些工具通常具备强大的搜索功能、标签系统、引用管理、自动分类和AI辅助的整理功能,可以帮助用户高效地管理和利用个人知识库。选择合适的工具时,需要考虑个人的需求、使用习惯和偏好。随着AI技术的发展,这些工具的功能也在不断增强,为用户提供更加智能化的知识管理体验。
2024-06-23
为什么要本地部署
以下是关于本地部署的一些原因: 对于只有特定设备(如只有一台 Mac 设备),且想灵活学习 AI 生图的情况,本地部署是最方便的。 如果电脑是 M 芯片的 Mac 电脑(Intel 芯片出图速度慢不建议)或者 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署,强烈建议在配有 N 卡的 Windows 电脑上进行。 本地部署测试方便,还可以尝试让其控制家里的智能家居。
2025-02-17
Deepseek老是“服务器繁忙,请稍后再试”,没有办法提升,比如说把模型部署到本地等等
如果您遇到 DeepSeek 老是显示“服务器繁忙,请稍后再试”且无法提升的情况,可以尝试以下方法: 1. 使用网页聊天: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件并添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL 为 https://ark.cnbeijing.volces.com/api/v3,填好之后点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 2. 完成上述操作后,您就可以愉快玩耍,无需担心“服务器繁忙”了,打开联网功能,还可以支持联网搜索使用 R1。
2025-02-15
comfyui的本地部署安装,GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G*2
以下是关于 ComfyUI 本地部署安装的相关信息: ComfyUI 相比 WebUI,配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。如果电脑能顺畅清晰地玩 3A 游戏,那玩 webui 和 ComfyUI 也没问题。配置上不封顶,根据自己的需求和预算来即可。 安装地址:https://github.com/comfyanonymous/ComfyUI 。可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComFYUI_windows_portable\\ComfyUI\\models\\vae 。 已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 您的电脑配置为 GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G2,可能需要注意内存方面可能不太满足推荐配置,可能会影响运行效果。
2025-02-13
deepseek怎么在电脑本地部署使用
以下是在电脑本地部署 DeepSeek 的步骤: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。开通成功的样子如相关说明。 2. 开通 DeepSeek R1 大模型:访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze 。打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。添加在线推理模型,添加后在扣子开发平台才能使用,具体添加过程包括添加模型和完成接入。 3. 创建智能体:点击创建,先完成一个智能体的创建。 此外,您还可以参考以下文章获取更详细的教程:《张梦飞:15 分钟零基础个人电脑部署 DeepSeekR1(无限制版)智能助手保姆级教程!》(https://waytoagi.feishu.cn/wiki/NjKBw4n8HikDZBkeyB4cDQVynKh?useEs6=0 ),该教程适用于完全没有 AI 部署经验的小白,详细介绍了如何在个人电脑上快速搭建 DeepSeekR1 本地 AI 助手,包括 Ollama 安装、DeepSeekR1 模型下载与运行、显存检查、终端指令操作、网页插件使用等环节,并提供了清晰的步骤图,确保 15 分钟内完成部署。
2025-02-12
coze 能调用用户自己部署的大模型吗
Coze 可以调用用户自己部署的大模型。例如: 在 Coze 上搭建工作流框架时,可通过“个人空间工作流创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
2025-02-12
deepseek部署
以下是关于 DeepSeek 部署的相关信息: DeepSeek R1 大模型成为国民刚需,但官网卡顿且存在不能联网等问题。 实现联网版 R1 大模型的核心路径是通过工作流+DeepSeek R1 大模型。 部署步骤包括: 拥有扣子专业版账号,若为普通账号需自行升级或注册专业号。 开通 DeepSeek R1 大模型,访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze ,在火山方舟中找到开通管理,开通服务并添加在线推理模型,添加后在扣子开发平台才能使用。 创建智能体,点击创建完成智能体的创建。 DeepSeek 大模型具有以下突出特点: 强大:比肩 O1 的推理能力。 便宜:参数少,训练开销与使用费用小。 开源:任何人均可自行下载与部署,提供论文详细说明训练步骤与窍门,甚至有可运行在手机上的 mini 模型。 免费:官方目前提供的服务完全免费,任何人随时随地可用。 联网:暂时唯一支持联网搜索的推理模型(o1 还不支持)。 本土:由没有海外经历甚至没有资深从业经验的本土团队开发完成。 看到相关微博的您可以: 直接访问网页链接马上用起来,也有移动 APP。 使劲用,疯狂用,尝试用它基本取代传统搜索,把各种问题拿去问它。 去看看别人是怎么用的,去试试其他大模型,了解 AI 擅长与不擅长的方面,以及如何调教,继续解锁与迭代属于自己的用法与更多工具。 希望 DeepSeek R1 能让您对当前最先进的 AI 祛魅,让 AI 逐渐变成生活中的水和电。
2025-02-12