Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

个人知识库

Answer

以下是关于个人知识库的相关内容:

使用 GPT 打造个人知识库:

  • 将文本拆分成小文本块(chunk),通过 embeddings API 转换成 embeddings 向量,在向量储存库中保存这些向量和文本块作为问答的知识库。
  • 当用户提出问题时,问题先转换成问题向量,与向量储存库中的文本块向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API。
  • 例如对于“此文作者是谁?”的问题,可根据向量关联度提取相关文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。”

理解 embeddings:

  • embeddings 是浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。
  • 向量是数学中表示大小和方向的量,通常用一串数字表示,在计算机科学和数据科学中常用列表表示。
  • 向量之间的距离有多种计算方式,常见的是欧几里得距离。
  • 在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。

手把手教你本地部署大模型以及搭建个人知识库:

  • 思路来源于视频号博主黄益贺。
  • 作者按照视频进行实操并附加了关于 RAG 的额外知识。
  • 读完本文可学习到如何使用 Ollama 一键部署本地大模型、了解 ChatGPT 的信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建本地化数据库等。
Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

手把手教你本地部署大模型以及搭建个人知识库

本文的思路来源于视频号博主:黄益贺我按照他的视频进行了实操,并且附加了一些关于RAG的额外知识[heading1]一、引言[content]大家好,我是大圣,一个致力使用AI工具将自己打造为超级个体的程序员。目前沉浸于AI Agent研究中无法自拔今天给大家分享的是手把手教你如何部署本地大模型以及搭建个人知识库读完本文,你会学习到如何使用Ollama一键部署本地大模型通过搭建本地的聊天工具,了解ChatGPT的信息是如何流转的RAG的概念以及所用到的一些核心技术如何通过AnythingLLM这款软件搭建完全本地化的数据库虽然我们大多数人不需要在自己部署大模型,但是我期望在本文的帮助下,能够带你手把手折腾一遍。这样在使用任何软件的时候,可以做到知其然,知其所以然。

Others are asking
对作为知识库的数据进行预处理,用哪个软件比较哈
以下是一些可用于对作为知识库的数据进行预处理的软件和方法: 1. LangchainchatGLM:对于知识库内容的组织要求较高,无需微调训练,适合有结构、界限分明的数据。可使用langchain库比对字典的关键词keys部分,找到相似度最高的相关keys对应的内容文本,送进提示词模板(prompt_template),然后送到LLM进行后处理。 2. 在检索原理方面,可通过嵌入模型(如Word2Vec、GloVe、BERT)将问题文本转化为向量,用于后续检索。例如,在商业化问答场景中,会对接收的问题进行预处理和向量化。 3. 在创建知识库并上传表格数据时,可通过API获取在线API的JSON数据上传,或手动自定义创建数据表结构和数据。需注意指定语义匹配字段,在响应用户查询时,将用户查询内容与该字段内容进行比较,根据相似度进行匹配。
2025-02-17
我手里有一个文件知识库,想锻炼一个ai,按照这个文件知识库的习惯帮我改写新的文件
以下是为您整理的内容: 南瓜博士:平生第一次写小说获奖,是 AI 帮我的! 三、丰富细化 接下来要让 AI 一段一段进行细节描写。为确保文章前后一致,先让 AI 帮助写故事概要和角色背景介绍,并按自己的审美略做修改。使用了一个重要技巧,让 AI 以表格形式输出细节描述,这样有三个好处: 1. 打破 AI 原本的叙事习惯,避免出现陈词滥调。 2. 按编号做局部调整容易,指哪改哪,其他内容能稳定不变。 3. 确保内容都是具体细节,避免整段输出时因缩减而丢光细节只剩笼统介绍。 四、串联成文 把上一步生成的五个表格依次复制粘贴,AI 就照着写文章了,偶尔需要帮忙给点建议。 五、失败的局部修改 小说大赛要求最后的作品必须是 AI 直接吐出来的,不能有任何改动且不能超过 2000 字,而自己的小说 2300+字,只好让 GPT4 做修改,一开始它表现不错,但很快暴露出记性不好的缺点。还没来得及高兴,就发现它失忆得很彻底。眼看截止时间快到了,只能求助 Claude,把文章和 GPT 生成的修改意见都给它,让它生成作品,匆匆截图提交。没想到,Claude 把关键情节改没了,如马克偷偷看艾拉、无名猫受伤的原因等。 熊猫 Jay:AI 编程 Cursor 来了,你没理由说不会写代码了 四、初体验:Cursor 的安装和使用 三、新增/修改代码、文字 选中代码,使用 Command+K 打开窗口,并输入修改要求。不选中代码打开窗口,可要求 AI 实现新功能,比如让 AI 增加一个广告位。当然,除了代码,也可选中文字进行修改,如改写、翻译等。 四、自动补全代码、注释、文字 输入代码或注释,Cursor 会自动补全代码,按 Tab 生效。除补全代码外,还能补全文字,可尝试。 五、对话窗口 Mac 使用 Shift+Command+L 打开聊天窗口,输入优化页面的需求,AI 能提供不同方案。比如倾向于使用好看的配色方案,点击 Apply,再点击 Accept 生效。要记得保存文件,Mac 的快捷键是 Command+S。这不是成品,若要做完整功能,需不停和 Cursor 对话,在案例部分会介绍完整制作过程。 六、全局搜索 还可把它当作简易的 AI 搜索工具,让它根据现有文件夹下的内容回答问题,比如问到基于文件内容,温度值设置的误区在哪里,回答准确度很高,甚至能定位到具体文件的行。
2025-02-17
给我flux的提示词结构的知识库我以他作为知识库
以下是关于 Flux 提示词结构的相关知识: 大语言模型就像一个学过无数知识、拥有无穷智慧的人,但在工作场景中,需要通过提示词来设定其角色和专注的技能,使其成为满足需求的“员工”。知识库则相当于给“员工”发放的工作手册,提供特定的信息。 提示词可以设定 Bot 的身份及其目标和技能,例如产品问答助手、新闻播报员、翻译助理等,决定 Bot 与用户的互动方式。详情可参考。 学习提示词可以分为五个维度,从高到低依次是思维框架、方法论、语句、工具和场景。但舒适的学习顺序应反过来,先从场景切入,直接了解在不同场景下提示词的使用及效果对比;然后使用提示词工具,如 Meta Prompt、Al 角色定制等;接着学习有效的提示语句,包括经典论文中的相关语句;再学习有效的方法论,将有效语句及其背后的原理整合成稳定可控的方法;最后掌握思维框架。 此外,还可以通过插件、工作流、记忆库等功能定制 AI Bot。插件可通过 API 连接集成各种平台和服务扩展 Bot 能力,详情参考。
2025-02-16
知识库RAG方案
RAG(检索增强生成)是一种在 AI 领域中用于处理知识库的方案。 大模型的训练数据有截止日期,当需要依靠不包含在大模型训练集中的数据时,RAG 是主要方法之一。 RAG 的应用可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 基于 Coze 的知识库问答是典型的 RAG 方案,其重要一环是文档切片。但 RAG 方案存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等。 相关的海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html ,国内官方文档:https://www.coze.cn/docs/guides/use_knowledge 。 在实际操作中,如使用外贸大师产品的帮助文档创建知识库时,要注意文档的分片策略会严重影响查询结果。
2025-02-16
你的知识库架构是怎样的,普通人如何迅速找到目标靶向,比如我想学ai绘画
以下是关于您想学习 AI 绘画的相关内容: 1. 知识库提到明天银海老师将详细讲解 AI agent,同时表示知识库内容丰富,您可挑选感兴趣的部分学习,比如较轻松的 AI 绘画等。 2. 强调 AI 绘画是视觉基础,还介绍了针对 AI 绘画学社做的关键词词库精选活动。 3. 讲述了 AI 绘画中的 stable diffusion 扩散模型的运作方式,是通过加噪和去噪,随机生成种子来形成最终图像,还提到生成式 AI 做高清放大可增加细节的原理。 您可以根据以上信息,逐步深入了解 AI 绘画的相关知识。
2025-02-15
知识库里面哪里有讲解AI在各行业应用现状的材料
以下是知识库中关于 AI 在各行业应用现状的相关材料: 在音乐创作方面,通过输入更高级的词汇与 AI 音乐对话能产生更好效果,有 AI 音乐的版块、挑战、分享会和教程,可通过王贝加入 AI 音乐社区。 在数字人语音合成方面,介绍了声音克隆技术,提到了微软、阿里等的相关成果,常用的是 JPT service。 在 config UI 的应用方面,能降低成本、提高效率,在图书出版、引流等方面有应用,岗位稀缺,社区有相关共学课程。 在零售电商行业,有《2024 生成式 AI 赋能零售电商行业解决方案白皮书》。 在招聘领域,牛客的《AI 面试实践手册(2024)》深入探讨了 AI 面试的应用现状、价值和未来发展,指出其在多个行业尤其在管培生、产品、IT 基础岗位和蓝领岗位中广泛应用。 在 PC 行业,腾讯广告 TMI 与 GfK 联合发布了《AI PC 行业趋势与潜力消费者洞察白皮书(2024 版)》。 在医疗领域,蛋壳研究院发布了《医疗人工智能走到新的十字路口》。 在新闻媒体领域,新华社研究院发布了《人工智能时代新闻媒体的责任与使命》。 在情感陪伴方面,头豹研究院发布了《AI 情感陪伴:缔造温情链接,拥抱智慧关怀新纪元》。
2025-02-15
搭建个人知识库的具体操作是什么?
搭建个人知识库的具体操作如下: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载不同类型的文档。 文本分割器把文档切分为指定大小的块。 存储涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 通过检索算法找到与输入问题相似的嵌入片。 把问题以及检索出来的嵌入片一起提交给 LLM 生成答案。 2. 本地知识库进阶: 若要更灵活掌控知识库,需使用 AnythingLLM 软件,其包含 Open WebUI 的所有能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 操作包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。 3. 使用 embeddings: 将文本转换成向量能节省空间,可理解为索引。 把大文本拆分成小文本块,通过 embeddings API 转换成向量,在向量储存库保存向量和文本块作为知识库。 用户提问时,问题先转成向量,与储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。 例如,对于“此文作者是谁?”的问题,通过比较向量可找到关联度高的文本块。
2025-02-13
我想用deepseek 写微信公众号文章,我将要写的主题告诉他,让它为我生成个人角度的文章,我要写的主题一般围绕着软件分享,技术分享等。请你根据我的要求为我写一份适用的提示词
以下是为您生成的适用于使用 DeepSeek 写微信公众号文章的提示词: 我要写一篇关于软件分享或技术分享的微信公众号文章,文章标题要足够吸引人,以便能广泛传播。文章内容要详细且有条理,先介绍分享的软件或技术的基本情况,包括其功能、特点和优势;然后结合实际案例或个人使用体验,阐述其在实际应用中的效果和价值;最后总结并展望其未来的发展前景。请为我生成这样一篇完整的文章。
2025-02-12
写一篇关于个人AI生存协作的探索指南
以下是一篇关于个人 AI 生存协作的探索指南: 一、相关研究和报告 1. 平安证券发布的《AI 系列深度报告(六):AI 智能眼镜:AI 技术应用落地新风口,25 年有望迎来新品密集发布》指出,AI 技术推动终端创新,AI 智能眼镜成为新风口,具有轻薄、功能聚焦视听、佩戴舒适等特点,预计 2025 年新品将密集发布,销量有望翻倍。 2. 腾讯研究院发布的《2025 年 AI 转型的进展洞察报告》深入探讨了 AI 转型的定义、内涵、应用现状、投资情况、挑战与风险以及未来展望。报告指出企业对生成式 AI 的探索集中在核心业务环节,但在职能性环节成熟度更高,应用时以多目标为导向,优先聚焦提升核心能力和优化现有业务。 二、基础篇 过去一年持续进行了关于 AI 协作探索的研究和分享,包括 AI 产品的流量和竞争视角分析等。 三、协同智能的七种武器 1. 认知层/武器一:As Team,Be Leader 2. 视角层/武器二:AI as Person 3. 视角层/武器三:AI as ME 4. 视角层/武器四:AI as Alien 5. 实践层/武器五:AI as Tool 6. 实践层/武器六:AI as Mirror&Coach 7. 实践层/武器七:AI as Coworker&Friend 四、拓展阅读 包括 Gamma embed、AIGC 行业、AI 变革、公司/产业实践等方面的内容。 五、人类价值的低替代、提升方向和方式重塑 在领导决策、创新思维、沟通能力等方面,思考和创新占 70%,想法的实现执行和与 AI 协作执行占 30%。
2025-02-12
架设个人AI
以下是关于架设个人 AI 的相关信息: 大圣是一位 AI 超级个体打造者,主业为程序员,专注于 AI Agent、AI 编程以及 AI 写作领域,热爱写作与分享,擅长将复杂的 AI 知识通俗易懂地讲解。他计划一年内将自己的工作流全部 AI 化以实现十倍提效,目前的工作流主要包括阅读与写作、自媒体个人 IP、做公开课程与付费课程以及女儿日常陪伴。 用 Coze 免费打造自己的微信 AI 机器人的步骤: 设计 AI 机器人时,要确定功能范围。 编写【prompt】提示词,设定 Bot 的身份和目标。 创建【知识库】,整理“关键字”与“AI 相关资料链接”的对应关系并存储,创建知识库路径为个人空间知识库创建知识库,支持本地文档、在线数据、飞书文档、Notion 等类型,本次使用【本地文档】,按照操作指引上传文档、分段设置、确认数据处理,可在内容中加上特殊分割符“”便于自动切分数据,分段标识符号选择“自定义”,内容填“”,若内容有误可编辑或删除。 创建【工作流】,告诉 AI 机器人处理信息的流程,创建工作流路径为个人空间工作流创建工作流,工作流设计好后先试运行,无误后发布,若任务和逻辑复杂,可结合“节点”工具,如调用【大模型】总结分析知识库内容、调用【数据库】存储用户输入信息、调用【代码】处理复杂逻辑等,工作流不必复杂,能实现目的即可,所以在设计 Bot 前确定目的和功能范围很重要。
2025-02-12
现在个人应用场景下最新的产品是什么
在个人应用场景下,最新的产品包括以下方面: 个人实操案例: 产品使用场景:为本篇文章配图,通过不同提示词生成搞笑图片等。 产品开发场景:搭建 AI 访谈 bot,以了解做 AI 朋友的访谈意愿和产出内容质量水平;对内容推荐机制感兴趣,希望 bot 具备内容推荐能力。实现方案有简单和复杂之分,复杂方案需考虑用户识别、记录存储入库可查看等问题,在扣子搭建 bot 时存在工作流触发不成功导致访谈记录未成功存储入库的情况。由于要发布到公众号作为订阅号助手,目前部署的是扣子版本,回复关键词【元器】可体验元器版本。 AIGC 落地应用: 筛选出 5 大应用场景、17 个细分方向、40+大模型案例。 使用场景分为改善大模型产品的使用体验、助力用户工作流、细分场景独立实用工具、AI 社区、Chatbot 五个方向。 产品形态分为插件(Chat GPT/Chrome 等)、辅助现有产品能力、深度结合 LLM 能力的独立网站&应用、AI 社区四种。目前产品大多分布在 PC 端。
2025-02-11
如何在个人pc上更好的使用ai
以下是在个人 PC 上更好地使用 AI 的一些建议: 1. 入门工具推荐: Kimi 智能助手是 ChatGPT 的国产平替,实际上手体验好,适合新手入门学习和体验 AI。它不用科学上网、不用付费、支持实时联网,是国内最早支持 20 万字无损上下文的 AI,对长文理解表现出色。 PC 端可通过下载。 2. 微信助手相关: 智谱 BigModel 共学营第二期提供了将微信变成超级 AI 助理的课程。程序在本地电脑运行时,若关闭窗口进程会结束,若想持续使用需保持窗口打开和运行。若突然不管用,可点击窗口并按空格,因为选中状态下 powershell 窗口不继续执行。 3. 自定义 API 密钥: OpenAI API 密钥:Cursor 允许输入自己的 OpenAI API 密钥,以自费发送任意数量的 AI 消息。可从获取,然后在 Cursor 设置>模型>OpenAI API 密钥中输入并点击“验证”按钮启用。 Anthropic API 密钥:与 OpenAI 类似,可设置自己的 Anthropic API 密钥自费使用基于 claude 的模型。 Google API 密钥:可以设置自己的 Google API 密钥,自费使用如 gemini1.5flash500k 等 Google 模型。 此外,“飞书”是一款汇集了各类 AI 优质知识库、AI 工具使用实践的效率工具,助力人人成为效率高手。可通过下载。
2025-02-10