Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

基础搭建的知识库效果很差,模型答案的幻觉很严重,我应该怎么改进?(Deepseek调用api接入本地faiss的rag库)

Answer

以下是一些改进基础搭建的知识库效果、减轻模型答案幻觉问题的建议:

  1. 更换大模型:例如从 ChatGLM2-6B 替换成 baichuan2-13b,针对您的场景,后者的性能可能提升一倍左右。
  2. 更换 embedding 模型:将 embedding 模型从 LangChain Chatchat 默认的 m3e-base 替换为 bge-large-zh,后者可能更优。
  3. 测试不同 Top k 的值:比较 Top 5、Top 10、Top 15 的结果,发现 Top 10 时效果可能最优。
  4. 对文档名称进行处理:人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,虽然重命名文件对结果的提升效果不明显,但勾选该选项后,回答的无关信息可能减少,效果有所提升。

RAG(Retrieval-Augmented Generation)即检索增强生成,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务。

在大模型中,向量可想象成空间中的点位,每个词或短语对应一个点。系统通过查看词在虚拟空间中点的位置,寻找直线距离最近的点来检索语义上接近的词语或信息。理解向量后,当收到一个对话时,RAG 的完整工作流程为:检索器从外部知识中检索相关信息,生成器利用这些信息生成答案。

要优化幻觉问题和提高准确性,需要了解从“问题输入”到“得到回复”的过程,针对每个环节逐个调优,以达到最佳效果。

Content generated by AI large model, please carefully verify (powered by aily)

References

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。

开发:产品视角的大模型 RAG 应用

开发:产品视角的大模型RAG应用[heading1]调优实践[content]基于以上的分析,我们先选取了实现成本最小的方式进行调优,结果如下:1、更换大模型:从ChatGLM2-6B替换成baichuan2-13b,发现针对我们的场景,后者的性能可以提升一倍左右。2、更换embedding模型:将embedding模型从LangChain Chatchat默认的m3e-base替换为bge-large-zh,发现后者优于前者3、测试不同Top k的值:比较Top 5、Top 10、Top 15的结果,发现Top 10时效果最优。4、对文档名称进行处理:由于原来的政策文件,在导出时文件名会进行简化,如too_long_发展行动方案。因此,人工对文件进行重命名,上传相同文件构建知识库,同时在构建知识库时勾选【开启中文标题加强】选项,发现重命名文件对结果的提升效果不明显,但勾选【开启中文标题加强】选项后,回答的无关信息减少,效果有所提升。目前来看,尽管效果有所提升,但仍未达到可用水平,后续我们也将尝试其他的调优策略。

张梦飞 :AI商用级问答场景,怎么让AI+知识库回答的更准确?一篇专门为小白讲透RAG而作的教程(上篇)

如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”----“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。简单来说,就是通过检索的模式,为大语言模型的生成提供更多信息,从而使大模型生成的答案更符合要求。[heading3]2、向量[content]首先我们需补个课,简单了解一下大模型中的“向量”:(同时建议了解下LLM的实现原理)你可以把向量想象成空间中的点位,而每个词或短语都对应一个点。当系统需要找到与一个特定词或短语相关的内容时,它会查看这个词在虚拟空间中点的位置,寻找直线距离最近的点。在这个空间中,距离越近的点,代表词义或内容上的关联度越高。简单来说,通过比较这些点的距离,检索器可以快速找到语义上接近的词语或信息,从而高效地检索相关内容。这就像在一个城市地图上找最近的餐馆,距离越近,越可能是你想去的地方。理解了向量,我们来看看收到一个对话时,RAG的完整的工作流程。

Others are asking
哪个大模型的API接口免费?
以下是一些提供免费 API 接口的大模型: 1. Silicon 硅基接口:有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,还赠送 14 元体验金,有效期未知。注册和使用地址为,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。它支持多种大模型,也支持文生图、图生图、文生视频。 2. 智普 GLM4 接口:在 BigModel.cn 上通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 API key。 3. 阿里的通义千问大模型:打开链接,创建个 API key。 4. 智谱 AI(ChatGLM):有免费接口。 5. 科大讯飞(SparkDesk):有免费接口。 此外,谷歌的 Gemini 大模型(gemini 1.5)和海外版 Coze 的 GPT4 模型是免费的,但需要给服务器挂梯子。
2025-03-28
扣子api的调用流程
扣子 API 的调用流程如下: 1. 传递请求的相关部分: Body:用于传递请求的主体部分,可以是 JSON、XML 或其他类型的数据。在 GET 方法中通常不用于传递参数,因为 GET 方法的 URL 已包含必要参数。 Path:用于定义请求的路径部分,通常以“/”开头,后面跟着一系列段落。在 GET 方法中可传递参数,但常编码为 URL 一部分。 Query:用于定义请求的查询部分,通常以“?”开头,后跟一系列键值对。在 GET 方法中是常用的参数传递方式。 Header:用于定义 HTTP 请求的头信息部分,包括各种头部字段。在 GET 方法中通常不用于传递参数,而是定义请求头部信息。 2. 配置输出参数: 如果填写无误,可直接点击自动解析,会自动调用一次 API 给出对应的输出参数。 例如填入汉字“张”,点击自动解析。解析成功会显示成功,输出参数填好后点击保存并继续。参数描述可根据需求填写。 3. 调试与校验: 测试工具是否能正常运行。 运行后查看输出结果,Request 为输入的传参,Response 为返回值,点击 Response 可看到解析后的参数。 此外,创建扣子的令牌步骤如下: 在扣子官网左下角选择扣子 API,在 API 令牌中选择“添加新令牌”,为令牌起名,选择过期时间(如永久有效),选择指定团队空间(个人空间或团队空间),勾选所有权限,保存好令牌的 Token,切勿向他人泄露。 让 Coze 智能体机器人连上微信和微信群的配置: 1. 获取机器人 ID:在个人空间中找到要接入微信的机器人,如画小二智能小助手,点击进入编辑界面,浏览器地址栏 bot/之后的数据即为机器人的 Bot ID。 2. API 授权:点击右上角发布,会出现 Bot as API,勾选并确定应用已成功授权 Bot as API。
2025-03-25
什么是API
API 是应用组件之间进行交互和数据交换的接口。简单来说,它是软件之间相互交流的方式,使得开发者能够在不了解另一程序或服务内部实现细节的情况下,访问和使用其功能。 APIKey 是用于实现对 API 访问控制的方法,通常是一串字符串,用于身份验证和访问控制。当开发者或应用程序通过 API 与另一程序或服务交互时,APIKey 作为请求的一部分被发送,以证明请求者具有调用该 API 的权限。它帮助服务提供商识别调用者身份,监控和控制 API 的使用情况,并防止未经授权的访问。 API 就像一个信差,接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。其数据格式通常为 JSON。 对于使用 API,首先要明确想要做什么样的 GPT 以及是否需要外部数据,然后寻找 API 文档或开发 API 以及可用的 Action,最后基于 API 文档编写 Action 里的 Schema 和 Prompt 来处理取回的信息。 您可以通过以下方式进一步学习 API 相关知识: 1. 系统地了解和学习 API 相关的知识。 2. 去网上寻找可以用的 API 来练习。 3. 发掘 GPT Action 更多的潜力。 创建 APIKey 时,登录网站寻找并创建新的密钥,记得保存好且不要泄露。使用 APIKEY 可能需要单独充值,有两种模式可以使用: 1. 使用官方的 key 网站:https://platform.openai.com/apikeys,创建好您的 key 后记得复制保存。 2. 如果觉得充值麻烦,可以考虑用第三方的网站:https://www.gptapi.us/register?aff=WLkA,这个充值起来方便一些,模型选择也可以多一些。
2025-03-24
@ 在cherry studio可以是你openrouter的API吗?
在 Cherry Studio 中,不能直接将 @ 作为 OpenRouter 的 API。OpenRouter 有一些特定的使用方式和条件。 例如,Zeabur 模版自带 oneapi,支持一键部署。但想要同时使用 openrouter 和 simpleoneapi 需安装 cline 插件,将 openrouter api 放到 cline,再把 Cursor 设置换成 simpleoneapi,这样基本能在 Cursor 里使用全系大模型。 OpenRouter 新发布了 BYOK(Bring Your Own API Keys)功能,这是个第三方 Key 集成功能,能将 xAI、OpenAI、Mistral 等数十个平台的 Key 集中在一起,还能同时使用其他平台和 OpenRouter 的额度。目前支持白“赚”的平台包括 AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI 等。 在使用 OpenRouter 集成 API Key 时,不仅能整合免费额度,还能解放更多槽位。但在 Cursor 的设置里,deepseek 会与 gpt 的配置发生冲突,同一时间最多只能使用 4 个类型的模型。 如果觉得 OpenRouter 支持的模型不够,还可以使用 simpleoneapi。不过 simpleoneapi 不像 openrouter 支持直接在线配置多个 Key,熟悉代码的可以通过本地或者 Docker 启动。 另外,在进行相关实验时,需要准备本地安装好的 VS Code,在 VS Code 中安装 Cline(MCP 客户端之一),还需要注册 Cloudflare 和 Openrouter,在 Openrouter 注册后在 Keys 中申请一个 API key 并妥善保存。
2025-03-24
有哪些国外免费的大模型API可以使用
以下是一些国外免费的大模型 API 可供使用: 1. 谷歌的 Gemini 大模型(https://ai.google.dev/)(gemini 1.5),但使用可能需要给服务器挂梯子。 2. 海外版 Coze(https://www.coze.com/)的 GPT4 模型,能图片识别,使用可能需要给服务器挂梯子。 此外,还有以下相关信息: 1. 阿里的通义千问大模型接口(https://dashscope.console.aliyun.com/),创建 API key 即可使用。 2. 智谱 AI(ChatGLM)(https://open.bigmodel.cn/)、科大讯飞(SparkDesk)(https://xinghuo.xfyun.cn/sparkapi)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 对于 OpenRouter 新发布的功能 BYOK(Bring Your Own API Keys),它是个第三方 Key 集成功能,将 xAI、OpenAI、Mistral 等数十个平台的 Key 集中在一起,目前支持白“赚”的平台包括 AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI 等。 以 silicon 为例,其有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,另赠送 14 元体验金,有效期未知,是个人认为 API 接口方便实惠的选择。注册和使用地址为:,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。
2025-03-19
可以同时接多个大模型api的聊天应用
以下是一些可以同时接多个大模型 API 的聊天应用: 1. 熊猫大侠:基于 COW 框架的 ChatBot 实现步骤 能实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用等功能。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 可选择多模型,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,包括文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多种部署方法,如本地运行、服务器运行、Docker 的方式。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;操作需依法合规,对大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 相关教程:张梦飞同学写的更适合小白的使用教程 2. DIN:全程白嫖拥有一个 AI 大模型的微信助手 搭建步骤: 搭建,用于汇聚整合多种大模型接口,并可白嫖大模型接口。 搭建,这是个知识库问答系统,可将知识文件放入,并接入大模型作为分析知识库的大脑来回答问题。若不想接入微信,其自身有问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 拓展功能:搭建完后想拓展 Cow 的功能,可参考 Yaki.eth 同学的教程,里面的 cow 插件能进行文件总结、MJ 绘画。 3. LLM 开源中文大语言模型及数据集集合中的外部挂件应用 wenda: 地址: 简介:一个 LLM 调用平台。为小模型外挂知识库查找和设计自动执行动作,实现不亚于大模型的生成能力。 JittorLLMs: 地址: 简介:计图大模型推理库:笔记本没有显卡也能跑大模型,具有成本低,支持广,可移植,速度快等优势。 WebCPM 地址: 简介:一个支持可交互网页搜索的中文大模型。 GPT Academic: 地址: 简介:为 GPT/GLM 提供图形交互界面,特别优化论文阅读润色体验,支持并行问询多种 LLM 模型,兼容复旦 MOSS, llama, rwkv, 盘古等。 ChatALL: 地址: 简介:ChatALL(中文名:齐叨)可以把一条指令同时发给多个 AI,可以帮助用户发现最好的回答。
2025-03-17
RAG和知识图谱的结合,需要如何实现
要实现 RAG 和知识图谱的结合,可以参考以下步骤: 1. 数据加载:根据数据源的类型选择合适的数据加载器,如对于网页数据源,可使用 WebBaseLoader 利用 urllib 和 BeautifulSoup 加载和解析网页,获取文档对象。 2. 文本分割:依据文本特点选用合适的文本分割器,将文档对象分割成较小的文档对象。例如,对于博客文章,可使用 RecursiveCharacterTextSplitter 递归地用常见分隔符分割文本,直至每个文档对象大小符合要求。 3. 嵌入与存储:根据嵌入质量和速度选择合适的文本嵌入器和向量存储器,将文档对象转换为嵌入并存储。比如,可使用 OpenAI 的嵌入模型和 Chroma 的向量存储器,即 OpenAIEmbeddings 和 ChromaVectorStore。 4. 创建检索器:使用向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数,创建用于根据用户输入检索相关文档对象的检索器。 5. 创建聊天模型:根据模型性能和成本选择合适的聊天模型,如使用 OpenAI 的 GPT3 模型,即 OpenAIChatModel,根据用户输入和检索到的文档对象生成输出消息。 此外,通用语言模型通过微调能完成常见任务,而对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 研究人员引入的 RAG 方法把信息检索组件和文本生成模型结合,能接受输入并检索相关文档,组合上下文和原始提示词送给文本生成器得到输出,适应事实变化,无需重新训练模型就能获取最新信息并产生可靠输出。Lewis 等人(2021)提出通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。
2025-03-28
详细讲解一下ragflow框架,同时对比一下ragflow与常规知识库有什么优势,在graphrag的实现方面ragflow又是怎么做的?
RAG(检索增强生成)是一种有效的解决方案,下面为您详细讲解: RAG 工作流程: 1. 检索(Retrieval):如同在图书馆中,系统会从知识库或文档集合中找出与用户问题相关的内容。 2. 增强(Augmented):对检索到的信息进行筛选和优化,挑出最相关和有用的部分。 3. 生成(Generation):将整合的信息生成自然流畅、易于理解的回答。 RAG 类似于一个超级智能的图书馆员,综合起来: 1. 检索:从庞大知识库中找到相关信息。 2. 增强:筛选优化确保找到最相关部分。 3. 生成:整合信息给出连贯回答。 RAG 的优势: 1. 成本效益:相比训练和维护大型专有模型,实现成本更低。 2. 灵活性:能利用多种数据源,包括结构化和非结构化数据,迅速适应不同领域和变化的数据。 3. 可扩展性:随时增加或更新知识库内容,无需重新训练模型。 RAG 与常规知识库的对比优势: 常规知识库可能存在知识更新不及时、数据来源单一等问题。而 RAG 能够从多种数据源获取信息,并且可以根据用户的实时需求进行检索和优化,生成更贴合需求的回答。 在 GraphRAG 的实现方面,目前提供的内容中未明确提及相关具体实现方式。 同时需要注意的是,RAG 也存在一些缺点,比如相比于专有模型的方案,回答准确性可能不够。
2025-03-28
使用RAG要注意什么?
使用 RAG 时需要注意以下几点: 1. 不能随意输入任何文档就期望得到准确回答。尽管 RAG 的基本概念不难理解,但有效实现 RAG 系统需要考虑多个复杂因素,如文档预处理、高效索引、相关性排序等,这些都需要专业知识和持续优化。 2. RAG 不能完全消除 AI 的幻觉。虽然它可以显著减少幻觉,但模型仍可能在检索到的信息基础上进行不当的推理或生成错误信息,只要有大模型参与,就有可能产生幻觉。 3. RAG 仍然消耗大模型的 Token。从流程上看,最终还是将知识库中检索的结果给到 LLM,然后由 LLM 进行重新整理输出。 4. 从评估角度看,如果检索到的知识是无效的,会严重影响 LLM 应用的表现,因此将检索过程的精确度和召回率与整个 LLM 应用程序分开进行研究尤为重要。 5. RAG 存在局限性,它适合打造专才,不适合打造通才,能够为模型提供新的信息、专有领域知识等,但并不适合为模型提供通用领域知识。同时,在让模型保持稳定的风格或结构输出、降低 token 消耗等方面存在不足,这两点需要使用微调技术解决。
2025-03-25
我想搭建个人rag知识库,实现本地化部署,可以调用本地大模型去分析知识库的内容进行解答
以下是搭建个人 rag 知识库并实现本地化部署,调用本地大模型分析知识库内容进行解答的详细步骤: 一、通过 Open WebUI 使用大模型 1. 访问相关网址,使用邮箱注册账号。 2. 登陆成功后,Open WebUI 一般有两种使用方式,包括聊天对话和 RAG 能力(让模型根据文档内容回答问题,这是构建知识库的基础之一)。 3. 如果要求不高,此时已搭建本地大模型,并通过 Web UI 实现与大模型对话。ChatGPT 访问速度快且回答效果好的原因在于其服务器配置高、训练参数多、数据更优及训练算法更好。 二、本地知识库进阶 1. 若要更灵活掌控知识库,需使用额外软件 AnythingLLM,其包含 Open WebUI 的所有能力,并额外支持选择文本嵌入模型和向量数据库。 2. 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 3. 在 AnythingLLM 中有 Workspace 的概念,可创建独有 Workspace 与其他项目数据隔离。首先创建工作空间,然后上传文档并在工作空间中进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后进行测试对话。 三、RAG 是什么 利用大模型搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需对 RAG 有大概了解。RAG 应用可抽象为 5 个过程: 1. 文档加载:从多种来源加载文档,LangChain 提供 100 多种不同的文档加载器,包括非结构化、结构化数据及代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 文本加载器是将用户提供的文本加载到内存中,便于后续处理。
2025-03-25
请推荐一份学习rag的资料
以下是为您推荐的学习 RAG(RetrievalAugmented Generation,检索增强生成)的资料: 1. 《RetrievalAugmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf),该资料对 RAG 进行了较为全面的介绍和分析。 2. 关于新知识的学习,您可以参考“胎教级教程:万字长文带你理解 RAG 全流程”。其中提到可以通过 Claude 帮助了解细节概念,然后再通过 Coze 搭建 Demo 来实践学习。还不知道 Coze 是什么的同学可以看公开分享: 。 3. 了解“RAG 是什么?”:RAG 是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。通过检索模式为大语言模型的生成提供帮助,使生成的答案更符合要求。同时,还介绍了大模型存在的缺点以及 RAG 的优点,如数据库对数据存储和更新稳定、敏捷、可解释等。 希望这些资料对您学习 RAG 有所帮助。
2025-03-25
什么是ai中的RAG
RAG 是检索增强生成(RetrievalAugmented Generation)的缩写,是一种结合了检索模型和生成模型的技术。其核心目的是通过某种途径把知识告诉给 AI 大模型,让大模型“知道”我们的私有知识,变得越来越“懂”我们。 RAG 的核心流程是:根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。 RAG 的最常见应用场景是知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 RAG 的基本流程如下: 1. 首先,给定一个用户的输入,例如一个问题或一个话题,RAG 会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。 2. 然后,RAG 会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。 3. 最后,RAG 会从大模型的输出中提取或格式化所需的信息,返回给用户。
2025-03-23
怎么让deepseek给我写一篇论文
以下是关于如何让 DeepSeek 为您写一篇论文的相关信息: 1. 引用参考文献:可以上传您已写好的文章让 DeepSeek 参考,常见的参考模式是上传,也可以将觉得 OK 的输出复制或手动修改作为自由节点贴在当前对话流中。 2. 利用自由节点:自由节点功能可以让您在交流中随时参考之前的内容,不会打断思考,有助于集中精力。 3. 比较模式:可以同时使用多个大模型为您写同一篇内容。 4. 控制文风与字数:在提示词中描述特定小说家的文风特征来控制创作风格,用 O1 模型对创作的字数进行控制,或通过多轮对话让 DeepSeek 增删改查来调整字数。 5. 写作思路探讨:写理性文章时,可先与 DeepSeek 讨论思路。 6. 文章分析与点评:可以让 DeepSeek 从写作角度、读者角度分析文章,指出缺点和不足并给出改善和提升的空间,还能对作者进行心理侧写。比如找出最喜欢的文章投喂给 DeepSeek R1,让其进行多次分析。 需要注意的是,DeepSeek 在写文方面全面领先,但长文可能会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案可能雷同。
2025-03-28
deepseek怎么解读论文
以下是关于 deepseek 论文解读的相关内容: 直播视频回放:可获取相关视频。 相关论文下载: 技巧分享:包括万能提示词的使用技巧。 社区动态: 《》介绍了 DeepSeek 最新论文提出的“Native Sparse Attention”(NSA),一种高效的超长上下文方案,兼顾训练和推理阶段,显著提升模型性能。 《》介绍了基于 Coze 平台的视频生成工作流,通过全自动化流程实现从文案创作到短视频生成的高效操作。 历史更新: 《》对照解读了春节前的 DeepSeek 相关模型的技术报告。 《》介绍了 DeepSeek 官方下场推荐的部署 DeepSeekR1 的设置。 《》介绍了火山方舟大模型服务平台上线 DeepSeek 系列模型及相关活动。
2025-03-28
waytoAGI和deepseek有什么区别
WaytoAGI 和 deepseek 的区别如下: WaytoAGI: 可以了解最新的 AI 技术,其开源免费,能让人学到实用技能。 提供线上共学,手把手教用户应用 AI 技术,适合不同基础的用户找到学习路径。 是一个能找到志同道合队友的平台,便于创业、做副业或一起搞事情。 其线下活动能让人了解最新的 AI 落地应用现状,结识有趣、有想法的人,让人意识到要多与人交流和体验真实生活才能成长。 deepseek: 关于 deepseek 的具体特点未在提供的内容中有明确阐述,但可以通过相关学习材料,如“详解:DeepSeek 深度推理+联网搜索目前断档第一”“收集全网最好玩 Deepseek 案例”“集合·DeepSeek 提示词方法论”等,对其进行快速了解。在 AI 领域爆火工具出现时,WaytoAGI 上会有很多 deepseek 相关的内容,通过快速阅读这些开源资料能获得对 deepseek 的基础认识。
2025-03-28
deepseek与chatgpt的区别
DeepSeek 与 ChatGPT 存在以下区别: 1. 在 App Store 排名方面,DeepSeek R1 冲到了美国区 App Store 第一名,超越了 ChatGPT。 2. 口碑与技术实力方面,DeepSeek 没有市场部,也没有做任何市场投放,完全依靠技术实力和口碑赢得用户认可。 3. 技术特点上,DeepSeek R1 效果比肩顶尖闭源模型 o1,但价格仅为 o1 的 27 分之一,且开源让行业认知整体拉齐,得到全世界尊重和喜爱。 4. 创新模型 R1 Zero 方面,跳过了监督微调进行训练,且发现模型的思考能力可以自我涌现,具有革命性。 5. 影响方面,DeepSeek R1 的发布引发美国科技界恐慌,Meta 内部对其出色表现感到震惊,其低成本和高性能使得英伟达市场地位受到挑战,导致股价下跌、市值蒸发。 6. 对于未来展望,开源模型的进步将超越闭源模型,顶级模型推理价格急速下降,技术更加普惠平权,AI 编程效率提升、门槛降低,创作能力不断提升,催生更多可消费内容形式。 此外,ChatGPT 采用人们熟悉的聊天框,形成单线程任务,而 flowith 跳出单一聊天框,用画布和节点构建多线程思维流,更适用于深度内容生成,其由资料库、创作画布、内容编辑三部分组成,优势在于可自由调用不同 AI 模型处理不同任务,涵盖文字和图片生成,任务能有机组合形成同频任务流。
2025-03-27
deepseek与chatgpt之间的差别
DeepSeek 与 ChatGPT 存在以下差别: 1. App Store 排名:DeepSeek R1 冲到了美国区 App Store 第一名,超越了 ChatGPT。 2. 口碑与推广:DeepSeek 没有市场部和市场投放,依靠技术实力和口碑获得认可;而 ChatGPT 可能有不同的推广策略。 3. 性能与成本:DeepSeek R1 效果比肩顶尖闭源模型 o1,价格仅为 o1 的 27 分之一。 4. 开源与创新:DeepSeek R1 开源让行业认知拉齐,得到尊重和喜爱;ChatGPT 可能在开源方面有所不同。 5. 创新模型:DeepSeek R1 的创新模型 R1 Zero 跳过监督微调(SFT)阶段,直接采用强化学习(RL)训练,且发现模型思考能力可自我涌现。 6. 影响:DeepSeek R1 的发布引发美国科技界恐慌,挑战英伟达市场地位;ChatGPT 也有其自身的影响。 此外,游戏科学创始人冯骥称 DeepSeek 具备强大、便宜、开源、免费、联网和本土等六大优势,全面超过现有 AI 大模型。相关报道还指出 DeepSeek R1 在美国 App Store 夺冠,成为开源 AI 领域的领军者。
2025-03-27
现在deepseek从普通用户的层面,相比于其他模型,优势有哪些
DeepSeek 对于普通用户的优势包括: 1. 国产之光,在国内被广泛接入和使用。 2. 生成代码的质量可与国外顶尖大模型媲美。 3. 深度思考版本 DeepSeek R1 基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升回答质量。其“聪明”源于独特的“教育方式”,率先进入“自学成才”新阶段。 4. 思考与表达能力出色,在思考过程和输出结果的语气、结构、逻辑上表现优秀,碾压其他模型。 然而,DeepSeek 也存在一些不足,例如对于协助编程,其最大的上下文长度只有 64k,较短,导致无法处理更长的上下文和更复杂的代码项目。
2025-03-27
faiss 知识库搭建和维护
以下是关于 Faiss 知识库搭建和维护的相关内容: 搭建步骤: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在相关工具(如 Dify )中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式:提供了多种索引方式供选择,如高质量模式、经济模式和 Q&A 分段模式等。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 维护方面: 1. 维护知识库内容:为了提升召回的准确率,可以删除、新增或修改知识库内容。 2. 管理知识库:在知识库页面,可以看到已创建的知识库和每个知识库内的单元数量和创建时间等信息。单击知识库或编辑图标,进入知识库详情页面。在知识库详情页,可以进行新增内容、删除内容、更新单元内的分段、开启引用等操作。如果不开启引用,即便 Bot 中使用了所属的知识库,该单元内容也不会被召回。 此外,还需了解知识库由大到小可分为:知识库(一整套领域知识,是 Bot 加载的最小单位)、单元(知识库的一部分,可上传的最小内容单位可以是一个.txt、.pdf、.csv 文件或一个网页)、分段(一个单元切分成多个分段,模型查询的最小单位。分段内容的完整度和准确性度会影响模型回答问题的准确性)。
2025-02-06