直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

私人知识库

回答

以下是关于私人知识库的相关知识:

使用 GPT 打造个人知识库:

  • 可先将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。
  • 当用户提出问题时,问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成新的 prompt 发送给 GPT API。

理解 embeddings:

  • embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。
  • 向量是数学中表示大小和方向的量,通常用一串数字表示,在计算机科学和数据科学中常用列表来表示。
  • 计算向量之间距离常见的方式是欧几里得距离,即对应元素相减取平方和再开平方。

AI 时代的私人知识库:

  • 私人知识库中的内容一般有两种:日常从互联网收集的优质信息和个人日常的思考以及分享。
  • 基于私人知识库打造个人专属的 ChatGPT 常见有两种技术方案:训练专有大模型和利用 RAG(检索增强生成)技术。
    • 训练专有大模型:可以使用个人知识库训练专有的大模型,但此方案并非当下主流,存在高成本、更新难度大等缺陷。高成本体现在需要大量计算资源和专业知识;更新难度大在于若要更新模型知识,需重新训练或微调模型,过程复杂耗时。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

从零开始,用GPT打造个人知识库

embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A =[1,2]和向量B =[4,6]之间的欧几里得距离为sqrt((4-1)^2 +(6-2)^2)= 5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

这可能是讲 Coze 的知识库最通俗易懂的文章了

KimiChat和ChatGPT等AI聊天软件为什么能够精准的回答问题,因为他们使用了整个互联网的语料进行了训练,从而拥有了整个互联网的知识。看到这里你应该知道我想要讲什么了,对,既然能用整个互联网的知识训练出KimiChat和ChatGPT等大模型,那我能不能使用我的知识库来训练一个专有的大模型呢?当然可以!而且这样的效果是最好的。但是这并不是当下主流的方案,因为他有以下几个缺陷:高成本:训练和维护一个大型专有模型的成本非常高,需要大量的计算资源和专业知识。更新难度:如果需要更新模型的知识,需要重新训练或微调模型,这可能是一个复杂且耗时的过程下面让我们来看另一个方案:RAG(检索增强生成)

其他人在问
你是基于什么大模型做的知识库
以下是关于大模型和知识库的相关知识: 1. RAG(检索增强生成)技术:利用大模型搭建知识库是 RAG 技术的应用。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过 RAG 实现。RAG 包括文档加载、文本分割、存储(包括嵌入和向量数据存储到向量数据库)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)等 5 个过程。文档加载可从多种来源加载不同类型的文档,文本分割将文档切分为指定大小的块。 2. 硬件配置要求:运行大模型需要较高的机器配置。生成文字大模型最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型);生成图片大模型最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM;生成音频大模型最低配置为 8G VRAM,建议配置为 24G VRAM。 3. 实例:在一个设定中,使用阿里千问模型,设定角色为“美嘉”,知识库为《爱情公寓》全季剧情,实现问答。
2024-10-22
RAG应用的案例,结合本地知识库和开放搜索
以下是一些 RAG 应用的案例: 1. 用户向 ChatGPT 查询最近引起广泛关注的事件,如 OpenAI 首席执行官的突然解雇和复职,由于 ChatGPT 预训练数据的限制缺乏对最新事件的了解。RAG 通过从外部知识库中检索最新的文档摘录来解决这一问题,获取相关新闻文章并与最初的问题合并成丰富的提示,使 ChatGPT 能够合成知情的回答,展示了其通过实时信息检索增强模型响应能力的过程。 2. 在本地知识库的搭建中,利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。RAG 应用可抽象为 5 个过程:文档加载,从多种来源加载文档;文本分割,把文档切分为指定大小的块;存储,包括将切分好的文档块嵌入转换成向量形式并存储到向量数据库;检索,通过检索算法找到与输入问题相似的嵌入片;输出,把问题及检索出来的嵌入片一起提交给 LLM,让其生成更合理的答案。 3. 在了解 RAG 全貌时,其流程分为离线数据处理和在线检索两个过程。离线数据处理目的是构建知识库这本“活字典”,在线检索则是利用知识库和大模型进行查询的过程。以构建智能问答客服这一最经典的应用场景为例,可深入了解 RAG 所有流程中的“What”与“Why”。
2024-10-20
如果我需要撰写一个以“AI对音乐行业就业岗位的影响”为主题的约3000字的科普类文章,我应该优先关注WaytoAGI 知识库中的哪些内容?
很抱歉,目前“通往 AGI 之路”知识库中没有与“AI 对音乐行业就业岗位的影响”相关的直接内容。但您可以从以下几个方面入手来撰写这篇文章: 1. 了解 AI 在音乐创作、制作、表演等方面的应用现状和发展趋势。 2. 研究 AI 技术如何改变音乐的生产流程和效率。 3. 分析 AI 对音乐创作者、演奏者、制作人等不同岗位的具体影响,包括可能的岗位替代和新岗位的产生。 4. 探讨 AI 带来的音乐版权和知识产权问题,以及对相关法律和政策的影响。 5. 关注音乐消费者对 AI 参与音乐创作和表演的接受程度和需求变化。
2024-10-19
结合知识库的商业项目, 给我100个ai创业的落地方案
很抱歉,目前知识库中没有为您提供 100 个 AI 创业的落地方案。但以下为您列举一些常见的 AI 创业方向供您参考: 1. 开发基于 AI 的智能客服系统,为企业提供高效的客户服务解决方案。 2. 利用 AI 技术进行精准营销,通过数据分析和预测为企业制定个性化的营销策略。 3. 打造 AI 驱动的医疗诊断辅助工具,帮助医生更准确地诊断疾病。 4. 研发 AI 教育软件,实现个性化学习和智能辅导。 5. 构建 AI 智能家居系统,实现家居设备的自动化控制和智能化管理。 6. 开发 AI 图像识别技术,应用于安防、交通等领域。 7. 推出 AI 金融风险评估模型,为金融机构提供更准确的风险评估。 8. 打造 AI 内容创作平台,生成文章、视频脚本等。 9. 研发 AI 人力资源管理工具,进行人才筛选和绩效评估。 10. 构建 AI 物流优化系统,提高物流效率和降低成本。 您可以根据自身的资源和优势,进一步细化和拓展这些方向,形成具体的创业方案。
2024-10-18
知识库都有哪些提示词框架
以下是一些常见的提示词框架: ICIO 框架:包括 Instruction(指令)、Context(背景信息)、Input Data(输入数据)、Output Indicator(输出引导)。 CRISPE 框架:涵盖 Capacity and Role(能力和角色)、Insight(见解)、Statement(声明)、Personality(个性)、Experiment(实验)。 BROKE 框架:包含 Background(背景)、Role(角色)、Objectives(目标)、Key Result(关键结果)。 TRACE 框架:有 TASK(任务)、REQUEST(请求)、ACTION(行动)、CONTEXT(上下文)、EXAMPLE(示例)。 ERA 框架:包括 EXPECTATION(期望)、ROLE(角色)、ACTION(行动)。 CARE 框架:由 CONTEXT(上下文)、ACTION(行动)、RESULT(结果)、EXAMPLE(示例)组成。 ROSES 框架:包含 ROLE(角色)、OBJECTIVE(目的)、SCENARIO(方案)。 Evolve 框架:包括试验并改进,通过改进输入、改进答案、重新生成等方法。 APE 框架。 COAST 框架:包含 CONTEXT(上下文背景)、OBJECTIVE(目的)、ACTION(行动)、SCENARIO(方案)、TASK(任务)。 TAG 框架:包括 TASK(任务)、ACTION(行动)、GOAL(目标)。 RISE 框架。
2024-10-17
基于飞书的知识库RAG的搭建,需要什么接口进行全文搜索
基于飞书的知识库 RAG 搭建,可用于全文搜索的接口方式主要有以下几种: 1. 语义检索:语义匹配关注查询和文档内容的意义,而非仅仅表面的词汇匹配。通过向量的相似性来判断语义的相似性。 2. 全文检索:这是基于关键词的检索方式。例如,对于句子“猫的饮食习惯包括吃鱼和鸡肉”,输入“猫”“饮食”“猫的饮食习惯”“吃鱼”等关键词可搜索到该句子,但输入“猫喜欢吃什么呀”则无法搜索到。 3. 混合检索:结合了语义匹配和全文检索的优点,通常系统先进行全文检索获取初步结果,然后再对这些结果进行语义匹配和排序。 此外,在本地部署资讯问答机器人实现 RAG 时,会涉及加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型。还会为文档内容生成向量,如使用文本向量模型 bgem3 等。 在开发 LangChain 应用开发指南中,实现 LangChain 和 RAG 的结合时,需要加载数据、分割文档、转换嵌入并存储到向量存储器、创建检索器以及聊天模型等步骤。
2024-10-17
有一个小朋友的私人教练微信群,个人手机中存储的微信聊天历史,如何提取成ai可以使用的知识库包含时间线,语音,图片视频。
目前要将个人手机中存储的包含时间线、语音、图片、视频的小朋友私人教练微信群聊天历史提取成 AI 可以使用的知识库,存在一定的技术难度。 对于文字聊天记录,可通过手动整理或使用一些第三方工具进行导出和整理。但对于语音、图片和视频,AI 直接处理和理解这些内容的能力有限。 语音需要先进行语音转文字的处理,这可能需要借助专门的语音转文字软件,且转换的准确性可能受到语音质量、口音等因素的影响。 图片和视频的内容提取则更为复杂,需要使用图像识别和视频分析技术,将其中的关键信息提取出来并转化为文字描述,但这种转化的准确性和完整性难以保证。 总的来说,要实现您的需求,需要综合运用多种技术和工具,并且可能无法达到完美的效果。
2024-08-08