Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

基础搭建的知识库效果很差,模型答案的幻觉很严重,我应该怎么改进?(Deepseek调用api接入本地faiss的rag库)

Answer

以下是一些改进基础搭建的知识库效果、减轻模型答案幻觉问题的建议:

  1. 更换大模型:例如从 ChatGLM2-6B 替换成 baichuan2-13b,针对您的场景,后者的性能可能提升一倍左右。
  2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3e-base 替换为 bge-large-zh,后者可能更优。
  3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果可能最优。
  4. 对文档名称进行处理:人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,虽然重命名文件对结果的提升效果不明显,但勾选该选项后,回答的无关信息可能减少,效果有所提升。

RAG(Retrieval-Augmented Generation)即检索增强生成,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务。

在大模型中,向量可想象成空间中的点位,每个词或短语对应一个点。系统通过查看词在虚拟空间中点的位置,寻找直线距离最近的点来检索语义上接近的词语或信息。理解向量后,当收到一个对话时,RAG 的完整工作流程为:检索器从外部知识中检索相关信息,生成器利用这些信息生成答案。

要优化幻觉问题和提高准确性,需要了解从“问题输入”到“得到回复”的过程,针对每个环节逐个调优,以达到最佳效果。

Content generated by AI large model, please carefully verify (powered by aily)

References

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]调优实践[content]基于以上的分析,我们先选取了实现成本最小的方式进行调优,结果如下:1、更换大模型:从ChatGLM2-6B替换成baichuan2-13b,发现针对我们的场景,后者的性能可以提升一倍左右。2、更换embedding模型:将embedding模型从LangChain Chatchat默认的m3e-base替换为bge-large-zh,发现后者优于前者3、测试不同Top k的值:比较Top 5、Top 10、Top 15的结果,发现Top 10时效果最优。4、对文档名称进行处理:由于原来的政策文件,在导出时文件名会进行简化,如too_long_发展行动方案。因此,人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,发现重命名文件对结果的提升效果不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前来看,尽管效果有所提升,但仍未达到可用水平,后续我们也将尝试其他的调优策略。

张梦飞 :AI商用级问答场景,怎么让AI+知识库回答的更准确?一篇专门为小白讲透RAG而作的教程(上篇)

如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”----“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。简单来说,就是通过检索的模式,为大语言模型的生成提供更多信息,从而使大模型生成的答案更符合要求。[heading3]2、向量[content]首先我们需补个课,简单了解一下大模型中的“向量”:(同时建议了解下LLM的实现原理)你可以把向量想象成空间中的点位,而每个词或短语都对应一个点。当系统需要找到与一个特定词或短语相关的内容时,它会查看这个词在虚拟空间中点的位置,寻找直线距离最近的点。在这个空间中,距离越近的点,代表词义或内容上的关联度越高。简单来说,通过比较这些点的距离,检索器可以快速找到语义上接近的词语或信息,从而高效地检索相关内容。这就像在一个城市地图上找最近的餐馆,距离越近,越可能是你想去的地方。理解了向量,我们来看看收到一个对话时,RAG的完整的工作流程。

Others are asking
Claude3/grok3/Gemini使用API调用时消耗token的价格是?
Claude 3 的 API 调用价格为:每百万输入 token 0.25 美元,每百万输出 token 1.25 美元。可以处理和分析 400 起最高法院案件或 2500 张图片只需 1 美元。相关链接:https://x.com/imxiaohu/status/1768284259792691366?s=20
2025-02-27
请介绍Coze开发平台中,扣子API有什么功能?怎么用它?
在 Coze 开发平台中,扣子 API 具有以下功能和使用方法: 获取 accessToken: 在 coze 界面右侧的扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats 。 添加令牌,设置 token 的名称和过期时间(为安全起见,最多 1 个月)。 设置权限,可选择会话管理和对话,拿不准可全部选择,完成后点击“确定”按钮。 最后一定要点击按钮复制下拉获取令牌,此令牌只会出现一次。 获取 botid: 从“工作空间”打开一个 bot,点击商店按钮,查看地址栏中“bot/”之后的数字。 发布为 bot api: 注意在前端使用 bot 必须发布成为 API,点击发布,选择 API,等待审核通过。 此外,智能体沟通页面在 Zion 中采用 OAuth 鉴权机制,准备工作包括: 获取 Coze bot 应用鉴权密钥:在 Coze 主页点击左下方扣子 API,选择 Oauth 授权模式,添加新令牌并配置基本信息,创建 Key 过程中会生成公钥和私钥(私钥需单独下载保存),最后勾选全部权限。 获取 Bot ID:进入自己的智能体在地址栏内复制“bot/”之后的数字,且 bot 发布时要选择 Agent as API。 在 Coze 上发布 bot:发布时记得勾选 API 及 WEB SDK,Coze bot 发布有审核周期(1 30 分钟),需确认发布成功。 在扣子中手搓插件方面: Body:用于传递请求主体部分,GET 方法中通常不使用来传递参数。 Path:定义请求路径部分,GET 方法中可编码为 URL 一部分传递参数。 Query:定义请求查询部分,是 GET 方法中常用的参数传递方式。 Header:定义 HTTP 请求头信息部分,GET 方法中通常不用于传递参数。 配置输出参数:填对信息后可点击自动解析,若成功会显示并填好输出参数,然后保存并继续,建议填写参数描述。 调试与校验:测试工具能否正常运行,运行后查看输出结果,点击 Response 可看到解析后的参数。
2025-02-27
配置“DeepSeek-R1”模型的 API key:基础 URL:https://ark.cn-beijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。添加“DeepSeek-R1”模型。这个行为在Macbook中怎么操作,请进行指导,通过图片、文字、数据、网址等形式
在 Macbook 中配置“DeepSeekR1”模型的 API key 及添加模型的操作步骤如下: 1. 获取 DeepSeekR1 满血版密钥: 注册并登录火山引擎,点击立即体验进入控制台:https://zjsms.com/iP5QRuGW/ 。 创建一个接入点,点击在线推理创建推理接入点。 为接入点命名为 DeepSeekR1。若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,勾选全部模型和协议一路开通(免费)。 确认无误后,点击“确认接入”按钮。 自动返回创建页面,复制多出的接入点名称“DeepSeekR1”。 点击【API 调用】按钮,进入后点击【选择 API Key 并复制】,若没有则点击【创建 API key】,复制并保存。 2. 配置“DeepSeekR1”模型的 API key: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置 API key:基础 URL:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 3. 环境配置指南: 首先到 deepseek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。若没有赠送余额,可选择充值,支持美元和人民币两种结算方式及各种个性化充值方式,并创建一个 API key(注意及时保存,只会出现一次)。 以 cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline 。安装完后,打开三角箭头,选中 RooCline 并点击齿轮,进入设置,依次设置: API Provider:选择 DeepSeek 。 API Key:填入已创建的 key 。 模型:选择 DeepSeekreasoner 。 语言偏好设置。 记得把 HighRisk 选项都打开,最后点击 Done 保存修改。 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
2025-02-26
有哪些AI工具具备文案写作、代码生成、API接口功能
以下是一些具备文案写作、代码生成、API 接口功能的 AI 工具: 1. OpenAI API:可以应用于几乎所有涉及生成自然语言、代码或图像的任务,提供了一系列不同能力级别的模型,适用于不同任务,并且能够微调您自己的自定义模型。 2. Ideogram 2.0:是目前 AI 设计能力较强的工具,文字生成效果好且准确(仅限英文),图像生成效果优于 Flux&Dalle·3,提供 API 接口,方便企业集成高级图像生成功能。 3. Grammarly:提供语法检查、拼写纠正、风格建议和语气调整等功能,易于使用,支持多种平台,适用于多种语言。 4. Hemingway Editor:简化句子结构,提高可读性,标记复杂句和冗长句,界面简洁,重点突出,适用于改善写作风格和简洁性。 5. ProWritingAid:全面的语法和风格检查,提供详细的写作报告和建议,功能强大,支持多种平台和集成,特别适合专业写作者。 6. Writesonic:基于 AI 生成各种类型的文本,包括电子邮件、博客文章、广告文案等,生成速度快,适合需要快速创作和灵感的用户。 7. Lavender:专注于邮件写作优化,提供个性化建议和模板,帮助用户提高邮件打开率和回复率。
2025-02-25
API是什么意思
API(Application Programming Interface,应用程序编程接口)就像是一个信差。它接受一端的请求,将您想要做的事情告知对应的系统,然后把返回的信息传递回给您。 例如在 GPT 中,通过预先配置的 Action 里的 TMDB API 可以获取电影相关的专有信息。当您询问某部电影的相关内容时,GPT 会识别您的意图,按照 Prompt 进行任务,使用 Action 去相应的数据库寻找相关数据,如取出 backdrop_path 作为主视觉图,然后处理剧情数据、生成背景知识,最后使用 webpilot 搜索评价并返回整理后的数据。 配置一个 Action 时,需要考虑 Schema(相当于操作手册,告诉 GPT 可以去哪、干什么、需要准备什么)、Available actions(可用行动,对应 operationId、get、path)、Authentication(认证,类似于身份证)、Privacy policy(隐私政策)。 Action 的工作流大致为:首先思考想要做什么样的 GPT 以及是否需要外部数据;然后去寻找所需的外部数据的 API 文档,或者自行开发 API,寻找可用的 Action;最后基于 API 文档编写 Action 里的 Schema 和 Prompt(处理取回信息的方式)。 如果对 Action 感兴趣,可以从系统学习 API 知识、在网上寻找可用的 API 练习、发掘 GPT Action 更多潜力等方向继续深入。
2025-02-20
配置“DeepSeek-R1”模型的 API key:基础 URL 为 https://ark.cn-beijing.volces.com/api/v3,填好之后点击保存,关掉提醒弹窗。请对于这一步进行细节说明
以下是配置“DeepSeekR1”模型的 API key 的详细步骤: 1. 注册并登录火山引擎,点击立即体验进入控制台:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台)。 2. 创建一个接入点:点击在线推理创建推理接入点。 3. 为接入点命名为“DeepSeekR1”。如果出现“该模型未开通,开通后可创建推理接入点”的提示,点击“立即开通”,勾选全部模型和协议,一路点击开通(免费)。如果无提示则直接到第 5 步,点击确认接入。 4. 确认以下无误后,点击“确认接入”按钮。 5. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”,复制这个推理点的 ID 放到微信里保存。 6. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。如果已经有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】,复制好之后,放到微信里保存。 7. 也可以使用其他插件,下面为举例示意使用 Chrome 或 Microsoft Edge 浏览器,点击此链接,安装浏览器插件,添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 。 8. 打开聊天页面,点击右上角的插件列表,找到 Page Assist 插件,点击打开。 9. 基础 URL 填写:https://ark.cnbeijing.volces.com/api/v3 ,填好之后,点击保存,关掉提醒弹窗。 10. 配置完成。
2025-02-15
anythingLLM和RAG Flow哪个部署更容易
RAG Flow 和 LLM 的部署难易程度如下: RAG Flow: 公网 MaaS:通常只需要一个 API key 即可对接,默认提供了通义千问。比较特殊的是 OpenAI 的接口上提供了修改 endpoint,也就是支持中间商。 本地部署:目前仅支持 Xinference 和 Ollama 方式部署。但是实际上只要是 API 接口一致,对接方式一致都可以用该方式对接。此处基础 Url 只需要写到 v1 为止,不需要写 embeddings 的二级接口。添加模型后需要在“系统模型配置”中设置,方能让模型生效。 LLM:关于 LLM 的部署难易程度,上述内容中未给出直接对比信息。但 Dify.AI 作为一个开源的大规模语言模型应用开发平台,具有快速部署等特点,用户可以在 5 分钟内部署定制化的聊天机器人或 AI 助手。 综合来看,仅根据所提供的信息,难以确切判断 RAG Flow 和 LLM 哪个部署更容易,还需结合更多具体的技术细节和实际需求进行评估。
2025-02-27
企业建立私有大模型时候,采用什么工具进行RAG,高效实习企业知识文档、表格和pdf图纸的向量化
企业建立私有大模型进行 RAG 并实现企业知识文档、表格和 PDF 图纸向量化时,可参考以下工具和方法: 1. 本地部署资讯问答机器人: 导入依赖库,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 Python 程序中跑大模型(使用前需确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,最终合并成列表返回。 为文档内容生成向量,可使用文本向量模型 bgem3,从 hf 下载好模型后,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效的向量存储。 2. 开发:LangChain 应用开发指南 大模型的知识外挂 RAG 加载数据,根据数据源类型选择合适的数据加载器,如网页可使用 WebBaseLoader。 将文档对象分割成较小的对象,根据文本特点选择合适的文本分割器,如博客文章可用 RecursiveCharacterTextSplitter。 将文档对象转换为嵌入并存储到向量存储器中,根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 创建检索器,使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数创建检索器对象。 创建聊天模型,根据性能和成本选择合适的聊天模型,如 OpenAI 的 GPT3 模型。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-02-27
智能RAG客服系统搭建
搭建智能 RAG 客服系统主要包括以下方面: 1. RAG 全貌概览: RAG 的流程分为离线数据处理和在线检索两个过程。 离线数据处理的目的是构建知识库,知识会按照某种格式及排列方式存储在其中等待使用。 在线检索是利用知识库和大模型进行查询的过程。 2. 应用场景: 以构建智能问答客服为例,了解 RAG 所有流程中的“What”与“Why”。 3. 客服系统的要求: 具备结构清晰、全面的 FAQ 库,覆盖常见问题并根据实际场景动态更新。 例如订票平台,可基于用户信息提前呈现可能遇到的问题及解答。 4. 企业客户实践案例: 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。 5. RAG 提示工程: 在利用 RAG 架构构建智能问答系统时,“指代消解”是关键挑战之一,特别是在多轮对话场景中。 目前采用 Prompt 方法解决指代消解问题,会增加计算资源消耗和系统响应延迟,需权衡推理负荷、Token 消耗和问答准确性等因素,根据具体应用环境和需求做出合理选择。
2025-02-26
ragflow
RAGflow 能力拆解: 文档拆分方式: 通用模式:主要参考每个块的 token 数量,同时考虑语意完整性,切分段落点通常在句号或叹号等完整句子结束处。拆分结果和 langchain 的拆分大同小异。 Q&A 问答对:将左边内容加上“问题:”,右边内容加上“回答:”组成一个 block,数据清洗工作量大。 简历:解析容易失败,需要匹配关键词才能解析,建议官方给出简历模板。 手册:一整段文字提取,分割处在页面分页、段落分段处,块大小通常较大。 表格:拆分后每一行被当成一个块,第一行的表头插入到每一块头部。对没有特殊字符的表格信息处理较好,对图片内的公式做了 OCR 检测。 数据清洗:RAGflow 提供分段后的数据处理,可自行添加、修改数据或为数据加标签。测试发现,RAGflow 召回会同时使用向量相似度和关键词相似度并加权得到混合相似度,关键词相似度不仅匹配文本段内容还匹配关键词标签内容,单个实体在关键词中出现即为 100%。但需注意,检索获得的内容块需同时包含“问题信息”和“答案信息”,大模型才能解答。此外,RAGflow 没提供对外接口,做聊天或其他应用时不方便。 大模型 RAG 问答行业最佳案例及微调、推理双阶段实现模式:基于模块化RAG 自定义 RAG Flow 原创作者为刘焕勇,发表于 2024 年 1 月 29 日北京。在上一篇文章中介绍了模块化RAG 的相关工作,本文将从三个方面深入探讨 RAG Flow 的设计思路,分别是典型的 RAG Flow 模式、特定的 RAG 流实现以及最佳的行业案例。在典型的 RAG Flow 模式方面,将介绍 3 种微调阶段模式和 4 种推理阶段模式。
2025-02-26
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源(如维基百科),这些文档作为上下文与原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且不影响原有知识。 3. 数据库内容明确结构化,降低大模型输出出错可能。 4. 便于管控用户隐私数据。 5. 可降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-02-26
基于大模型的RAG应用开发与优化
基于大模型的 RAG 应用开发与优化具有以下特点: 优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数,还能使用自定义组件,只要遵循 LangChain 的接口规范。 2. 可扩展性:能利用 LangChain 的云服务部署和运行应用,无需担心资源和性能限制,也能使用分布式计算功能加速应用。 3. 可视化:通过 LangSmith 可视化工作流程,查看输入输出及组件性能状态,还能用于调试和优化,发现解决问题和瓶颈。 应用场景: 1. 专业问答:构建医疗、法律或金融等专业领域的问答应用,从专业数据源检索信息帮助大模型回答问题。 2. 文本摘要:构建新闻或论文等的摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要。 3. 文本生成:构建诗歌、故事等生成应用,从不同数据源检索灵感帮助大模型生成更有趣和创意的文本。 调优实践: 1. 更换大模型:从 ChatGLM26B 替换成 baichuan213b,针对特定场景,后者性能提升一倍左右。 2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3ebase 替换为 bgelargezh,后者更优。 3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果最优。 4. 对文档名称进行处理:人工重命名文件对结果提升不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前效果虽有提升,但仍未达到可用水平,后续将尝试其他调优策略。
2025-02-25
deepseek的提示词有哪些特别之处
DeepSeek 的提示词具有以下特别之处: 1. 语气还原:能还原帝王语气,相比其他模型输出,语气恰当,不过分用力,兼顾古典文字和可读性。 2. 熟悉历史细节:可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原唐初历史称谓,如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等,对“魏徵”等字词的使用也很讲究。 3. 输出具体且细节惊人:与其他 AI 不同,其输出充满具体而惊人的细节,行文隐喻拿捏到位,高级且能让画面跃然纸上。 4. 增添场景描述:在独白文本中“自作主张”地加入括号中的场景描述,增强画面感,如“夜风掀动案头《韩非子》,停在‘夫妻者,非有骨肉之恩也’那页”等。 5. 预判用户需求:对于简洁且无形容词、无倾向性的提示词,如“玄武门之变结束的当天,李世民在深夜写下一段独白,你觉得他会写什么?”,能准确预判用户想要的输出,自然想到添加文学性。
2025-02-27
个人有没有必要本地部署deepseek模型
个人是否有必要本地部署 DeepSeek 模型取决于多种因素。 DeepSeek 模型的权重文件开源,可本地部署。其公司名为“深度求索”,网页和手机应用目前免费,但 API 调用收费。 在云端模型部署方面,有实操演示和使用方法讲解,包括登录 Pad 控制台、选择框架、资源、出价等,还介绍了查看部署状态和日志的方法,以及用 Postman 在线调试模型获取名称及后续使用方式。 在模型部署相关内容中,部署时使用 V1 chat completion s 接口,要注意模型名称、大小写等。同时布置了作业为成功部署大语言模型并调试,提交带钉钉昵称的截图。还讲解了 API 调用方法、费用、停止服务方式等,提醒注意保密 API key,若竞不到价可加价尝试进行本地蒸馏模型部署。 模型蒸馏方面,先介绍云平台部署情况,接着讲解模型蒸馏概念、方式,阐述其应用场景及修复模型幻觉的作用,并进行了实操演示。 综合来看,如果您对数据隐私有较高要求、需要定制化的模型服务、有足够的技术能力和资源来进行本地部署和维护,或者在网络不稳定的情况下使用,那么本地部署可能是有必要的。但如果您的需求相对简单,且不具备相关技术条件和资源,使用云端服务可能更为便捷。
2025-02-27
deepseek和chatgtp的训练方式有什么不同
DeepSeek R1 的训练方式采用强化学习(RL),跳过了监督微调(SFT)阶段。而 ChatGPT 采用预训练+监督微调(SFT)的方式。 ChatGPT 这种方式适用于知识性问答。DeepSeek R1 能自发进行复杂推理,自我回溯、多角度思考,解题过程更完整,但其计算成本更高。在日常查询方面,GPT4o 更快、更适合简单咨询。DeepSeek R1 则在高难度数学和编程问题上更具优势,且更加透明,研究细节可复现,权重可下载。
2025-02-27
deepseek
DeepSeek 是一家具有独特特点和影响力的公司: 1. 秘方是硅谷味儿的:将其比喻成“AI 界的拼多多”是偏颇的,其在硅谷受到关注和追逐并非近期才发生。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新引发小范围轰动,而当时在国内舆论场被描摹成“大模型价格战的发起者”,形成平行时空的感觉。这表明 DeepSeek 与硅谷更有对话和交流的密码。 2. V3 是 DeepSeek 的 GPT3 时刻:如果 V3 真的是 DeepSeek 的 GPT3 时刻,接下来的发展充满未知,但 DeepSeek 作为中国最全球化的 AI 公司之一,赢得全球同行甚至对手尊重的秘方也是硅谷味儿的。 3. 一个提示词让 DeepSeek 能力更上一层楼:通过 Coze 做小测试进行效果对比。使用方法包括搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek,认真阅读开场白后正式开始对话。其设计思路包括将 Agent 封装成 Prompt 并储存在文件,通过提示词文件让 DeepSeek 实现同时使用联网和深度思考功能,在模型默认能力基础上优化输出质量等。完整提示词版本为 v1.3,特别鸣谢李继刚和 Thinking Claude 等。
2025-02-27
高校如何自己本地部署DEEPSEEK
高校本地部署 DEEPSEEK 可以参考以下内容: 1. 了解相关平台服务差异,如 DLC、DSW 和 EAS 等模型部署平台服务的不同。 2. 如果拥有云服务器,可以进行本地部署,但要注意满血版本地部署的实际情况。 3. 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 4. 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 5. 模型试用可以使用 postman,通过修改接口和复制文档中的内容进行在线调试,发送请求查看状态码,根据模型名称和相关要求输入内容进行试用。 6. 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 7. 实战演练 DeepSeek R1 满血版快速部署和蒸馏训练。 以上信息仅供参考,具体操作可能会因实际情况有所不同。
2025-02-27
豆包如何切换deepseekR1大模型
要切换到 DeepseekR1 大模型,您可以参考以下步骤: 1. 对于新闻播报自动化工作流: 首先,输入新闻链接,系统会自动提取核心内容。添加网页图片链接提取插件,获取网页里的图片。 接着,利用调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。 然后,使用链接读取节点提取文字内容,并在提取链接后面接上一个大模型节点,使用 DeepseekR1 模型生成有吸引力的口播内容。 注意,DeepseekR1 基础版本限额使用,可在专业版手动接入。手动接入时,先点击 https://www.volcengine.com/experience/ark?utm_term=202502dsinvite&ac=DSASUQY5&rc=A6NPZ83H 领取 375 万 R1 模型的 tokens(手机用户可扫描二维码),再到 https://www.volcengine.com/,根据相关截图自行接入推理点。为了后续批处理,需将输出格式设置为 Array<String>格式。 2. 对于飞书多维表格相关操作: 可参考教程“”。 例如,在制作【AI 书单】时,可把图书的封面图复制到多维表格里,AI 能自动识别【书名和作者】;用字段捷径【AI 搜索】找到豆瓣评分;用字段捷径【自定义 AI 自动填充】识别图书的内容概述、适用人群、推荐理由;用【信息提取】分别把主题、核心观点、故事梗概、适用人群、推荐理由提取出来。
2025-02-27
faiss 知识库搭建和维护
以下是关于 Faiss 知识库搭建和维护的相关内容: 搭建步骤: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在相关工具(如 Dify )中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式:提供了多种索引方式供选择,如高质量模式、经济模式和 Q&A 分段模式等。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 维护方面: 1. 维护知识库内容:为了提升召回的准确率,可以删除、新增或修改知识库内容。 2. 管理知识库:在知识库页面,可以看到已创建的知识库和每个知识库内的单元数量和创建时间等信息。单击知识库或编辑图标,进入知识库详情页面。在知识库详情页,可以进行新增内容、删除内容、更新单元内的分段、开启引用等操作。如果不开启引用,即便 Bot 中使用了所属的知识库,该单元内容也不会被召回。 此外,还需了解知识库由大到小可分为:知识库(一整套领域知识,是 Bot 加载的最小单位)、单元(知识库的一部分,可上传的最小内容单位可以是一个.txt、.pdf、.csv 文件或一个网页)、分段(一个单元切分成多个分段,模型查询的最小单位。分段内容的完整度和准确性度会影响模型回答问题的准确性)。
2025-02-06