Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

搭建个人知识库

Answer

以下是关于如何搭建个人知识库的详细介绍:

要搭建基于 GPT API 的定制化知识库,首先需要给 GPT 输入(投喂)定制化的知识。但 GPT-3.5(即当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,这个容量对于绝大多数领域知识是不够的。为解决此问题,OpenAI 提供了 embedding API 解决方案,可参考 OpenAI embedding documents。

embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。向量是数学中表示大小和方向的一个量,通常用一串数字表示,在计算机科学和数据科学中,向量通常用列表(list)来表示,列表是一种包含一组有序元素的数据结构。向量之间的距离是一种度量两个向量相似性的方法,最常见的是欧几里得距离,其计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似,例如“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建 embeddings 的示例。

将文本转换成向量能大大节省空间,可简单理解为索引(Index)。比如有一个大文本,可以先把它拆分成若干个小文本块(也叫 chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,这个向量跟文本块的语义相关。在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过 embeddings API 转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。

LlamaIndex 是更高一层 LangChain 的抽象,之前叫 GPT Index。之前的文章基于 GPT3.5 搭建定制化知识库中的例子就是使用的 LlamaIndex 包。它简化了 LangChain 对文本分割、查询这块的接口,提供了更丰富的 Data Connector。LlamaIndex 只针对 GPT Model 做 Index,而 LangChain 是可以对接多个 LLMs,可扩展性更强。参考 https://gpt-index.readthedocs.io/en/latest/ 。

最近各家大厂接连放大招,AI 技术和应用突飞猛进,GPT-4 接口已经支持最大 32K 输入,AI 的开发和使用门槛肯定会越来越低。垂直领域知识库的搭建和优化可能更多的是一个业务问题,而不是一个技术问题。欢迎关注公众号“越山集”,多交流。

Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

从零开始,用GPT打造个人知识库

LlamaIndex是更高一层LangChain的抽象,之前叫GPT Index。之前的文章[基于GPT3.5搭建定制化知识库](http://mp.weixin.qq.com/s?__biz=MzIyNDAzMzYxNQ==&mid=2652028778&idx=1&sn=985a386f915dea0d4dc97186af7c50b6&chksm=f3f3314ac484b85ce64579538987cea764181f92a4bb953724b055f0f2b9c73c03b109cfbe27&scene=21#wechat_redirect)中的例子就是使用的LlamaIndex包。它简化了LangChain对文本分割,查询这块的接口,提供了更丰富的Data Connector。LlamaIndex只针对GPT Model做Index,而LangChain是可以对接多个LLMs,可扩展性更强。参考https://gpt-index.readthedocs.io/en/latest/[heading2]写在最后[content]最近各家大厂接连放大招,AI技术和应用突飞猛进,GPT-4接口已经支持最大32K输入,AI的开发和使用门槛肯定会越来越低,就像当年的Windows,Office。垂直领域知识库的搭建和优化可能更多的是一个业务问题,而不是一个技术问题。欢迎关注公众号”越山集“,多交流。让我们保持好奇心,不断探索,共同进步。

Others are asking
知识库目录
以下是通往 AGI 之路的知识库目录相关内容: 1. 直播一期:知识库及 GPT 基础介绍 包含知识库及社群介绍,提供了直播回放链接,还介绍了最新知识库精选同步,如通往 AI 绘画之路(小红书),专注于 AI 绘画,分享优质设计 Prompt,并进行了知识库目录导览。 2. 5.关于我们&致谢 介绍这是一个开源 AI 社区,创建知识库的初衷是坚信人工智能将重塑思考和学习方式,带来强大力量。特别感谢支持和推荐知识库的伙伴们,WaytoAGI 是由热爱 AI 的专家和爱好者共同建设的开源 AI 知识库,整合各种 AI 资源,让不同水平的人都能受益。 3. 🌈通往 AGI 之路分享会 深入浅出理解 AI,从有趣的应用到核心原理。包括自我介绍,愿景和目标是让每个人学习 AI 少走弯路,让更多人因 AI 强大。目录涵盖有趣的 AI 案例、AI 的原理、Diffusion 原理和案例、什么是 Agent 。
2025-02-24
siliconflow可以搭建rag知识库吗
SiliconFlow 本身并不能直接搭建 RAG 知识库。但一般搭建 RAG 知识库的步骤通常包括以下方面: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建知识库: 访问相关平台的知识库索引,如阿里云百炼,单击创建知识库。在创建知识库界面填入知识库名称与描述。 选择文件,类目位置单击默认类目,文件名称选择准备好的数据文件。 进行数据处理,使用默认的智能切分或根据需求选择合适的处理方式。 3. 配置相关设置:如在 Dify 中提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式,可根据实际需求选择合适的索引方式。 4. 集成至应用:将创建好的数据集集成到相应的应用中,作为应用的上下文知识库使用,并在应用设置中配置数据集的使用方式。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新的内容以保持时效性。 需要注意的是,不同的平台和工具在具体操作上可能会有所差异。
2025-02-24
如何搭建 知识库
以下是搭建知识库的相关内容: 使用 Dify 构建知识库的步骤: 1. 准备数据:收集纳入知识库的文本数据,包括文档、表格等格式,进行清洗、分段等预处理以确保数据质量。 2. 创建数据集:在 Dify 中创建新数据集,上传准备好的文档,并编写良好的描述。 3. 配置索引方式:Dify 提供三种索引方式,根据实际需求选择,如追求更高准确度可选高质量模式。 4. 集成至应用:将数据集集成到 Dify 的对话型应用中,在应用设置中配置数据集使用方式。 5. 持续优化:收集用户反馈,对知识库内容和索引方式持续优化和迭代,定期更新增加新内容。 使用 Coze 智能体机器人搭建知识库的步骤: 1. 手动清洗数据:本次创建知识库使用手动清洗数据,提高数据准确性。 2. 在线知识库:点击创建知识库,创建画小二课程的 FAQ 知识库,飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义,输入,可编辑修改和删除,添加 Bot 并在调试区测试效果。 3. 本地文档:注意拆分内容提高训练数据准确度,将海报内容训练到知识库,按章节进行人工标注和处理,选择创建知识库自定义清洗数据。 4. 发布应用:点击发布,确保在 Bot 商店中能搜到。 本地部署大模型以及搭建个人知识库中关于 RAG 的介绍: 利用大模型的能力搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需先了解 RAG。RAG 是当需要依靠不包含在大模型训练集中的数据时,通过检索增强生成的技术。其应用可抽象为 5 个过程:文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成更合理答案)。文本加载器是将用户提供的文本加载到内存中以便后续处理。
2025-02-24
WaytoAGI 知识库有什么应用场景
WaytoAGI 知识库具有以下应用场景: 1. 在飞书 5000 人大群中,内置了智能机器人“waytoAGI 知识库智能问答”,可根据文档及知识进行回答。使用时在飞书群里发起话题时即可,它能自动回答用户关于 AGI 知识库内的问题,对多文档进行总结、提炼;在内置的“waytoAGI”知识库中搜索特定信息和数据,快速返回相关内容;提供与用户查询相关的文档部分或引用,帮助用户获取更深入的理解;通过互动式的问答,帮助群成员学习和理解 AI 相关的复杂概念;分享有关 AGI 领域的最新研究成果、新闻和趋势;促进群内讨论,提问和回答,增强社区的互动性和参与度;提供访问和下载 AI 相关研究论文、书籍、课程和其他资源的链接;支持多语言问答,满足不同背景用户的需求。 2. WaytoAGI 是由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库,目前知识库的内容覆盖:AI 绘画、AI 视频、AI 智能体、AI 3D 等多个版块,包含赛事和活动促进大家动手实践。 3. WaytoAGI 里有个离谱村,是由 WaytoAGI 孵化的千人共创项目,让大家学习和接触 AI 更容易,更感兴趣。参与者不分年龄层,一起脑洞和创意,都可以通过 AI 工具快速简单地创作出各种各样的作品。离谱村是一个没有被定义的地方,每个人心中都有自己想象中的离谱村,不仅代表着一个物理空间,更是灵魂的避风港,激励着每一个生命体发挥其无限的想象力,创造属于自己的独特生活方式。
2025-02-24
关于RAG和知识库的应用
RAG(检索增强生成,Retrieval Augmented Generation)是一种利用大模型能力搭建知识库的技术应用。当需要依靠不包含在大模型训练集中的数据时,可通过该技术实现。 RAG 的应用可抽象为以下 5 个过程: 1. 文档加载(Document Loading):从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储(Storage):涉及两个环节,一是将切分好的文档块进行嵌入(Embedding)转换成向量的形式,二是将 Embedding 后的向量数据存储到向量数据库。 4. 检索(Retrieval):数据进入向量数据库后,通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更加合理的答案。 离线数据处理的目的是构建知识库这本“活字典”,知识会按照某种格式及排列方式存储在其中等待使用。在线检索则是利用知识库和大模型进行查询的过程。以构建智能问答客服为例,可了解 RAG 所有流程中的 What 与 Why。 相关资源: 文本加载器:将用户提供的文本加载到内存中,便于后续处理。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2025-02-24
知识库怎么 传变量
在 Coze 中传变量的相关知识如下: 在创建工作流时,Start 节点可以定义输入变量,如“question”,该变量会在启动工作流时由 Bot 从外部获取信息传递过来。 变量节点有两个能力:设置变量给 Bot 和从 Bot 中获取变量。例如,可以从 Bot 中获取“user_language”这个变量,传给后面的大模型节点以控制其输出语言。 此外,关于 Coze 的工作流: 工作流由多个节点构成,节点是组成工作流的基本单元,本质是一个包含输入和输出的函数。 Coze 平台支持的节点类型包括 LLM(大语言模型)、Code(代码)、Knowledage(知识库)、Condition(条件判断)、Variable(获取变量)、Database(数据库)。 关于创建和使用工作流,可参考以下官方教程: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本还提供了一些示例,如搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news ;使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm ;生成随机数:https://www.coze.cn/docs/guides/workflow_use_code ;搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content ;识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent 。 创建知识库并上传文本内容的操作如下: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入知识库页面,并单击创建知识库。 4. 在弹出的页面配置知识库名称、描述,并单击确认。一个团队内的知识库名称不可重复,必须是唯一的。 5. 在单元页面,单击新增单元。 6. 在弹出的页面选择要上传的数据格式,默认是文本格式,然后选择一种文本内容上传方式完成内容上传。
2025-02-23
搭建rag
搭建 RAG 主要包括以下步骤: 1. 导入依赖库:加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型,使用前需确保 ollama 服务已开启并下载好模型。 2. 从订阅源获取内容:通过特定函数从指定的 RSS 订阅 url 提取内容,若需接收多个 url 稍作改动即可。然后用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接,最终合并成列表返回用于后续处理。 3. 为文档内容生成向量:使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,通过函数利用 FAISS 创建高效的向量存储。 4. 了解 RAG 概念:大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,通过检索增强生成 RAG。RAG 应用可抽象为 5 个过程,包括文档加载(从多种来源加载)、文本分割(切成指定大小的块)、存储(嵌入转换为向量形式并存入向量数据库)、检索(通过检索算法找到相似嵌入片)、输出(问题和检索出的嵌入片提交给 LLM 生成答案)。 5. LangChain 和 RAG 的结合:LangChain 是专注于大模型应用开发的平台,提供一系列组件和工具构建 RAG 应用。包括数据加载器(将数据转换为文档对象)、文本分割器(分割文档)、文本嵌入器(将文本转换为嵌入)、向量存储器(存储和查询嵌入)、检索器(根据文本查询返回相关文档对象)、聊天模型(生成输出消息)。使用 LangChain 构建 RAG 应用的一般流程如下。
2025-02-24
想要搭建属于自己的知识库应该用什么软件
以下是一些可用于搭建个人知识库的软件及相关信息: 1. Coze 或 FastGPT 等工具:在当下技术条件下,其 RAG 能力对问答场景较友好,其他场景效果一般。若需企业级复杂知识库场景,可能需找专业团队,收费几万到几十万不等。 2. 推荐文章《手把手教你本地部署大模型以及搭建个人知识库》中提到的 AnythingLLM 软件: 包含所有 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 该软件中有 Workspace 的概念,可创建独有 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式),配置完成后可进行对话测试。 3. 基于 GPT API 搭建定制化知识库:涉及给 GPT 输入定制化知识,因 GPT3.5 交互容量有限,OpenAI 提供了 embedding API 解决方案,可参考 OpenAI embedding documents 理解 embeddings 相关知识。
2025-02-23
coze的进阶教程有哪些,我需要有整个的搭建过程教程的,可以是共学活动里面的
以下是一些 Coze 的进阶教程和搭建过程的资源: 5 月 7 号():大聪明分享,主题为“Agent 的前世今生”,每个分享人分享最初接触 Coze 的经历以及现在用 Coze 做什么。流程为 20:00@🌈AJ 主持开场,20:00 21:00 大聪明分享,21:00 21:30 关于 Coze 随便聊聊。 5 月 8 号():大圣分享,主题为“我眼中的 AI Agent 以及通过搭建知识库实例入门 Coze”,20:00 21:20 大圣分享。 5 月 9 号():艾木分享,主题为“Agent 系统的核心构成:Workflow 和 Multiagent Flow(以‘Dr.Know’和‘卧底’为例),线上答疑。流程为 20:00 21:00 艾木分享,21:00 21:30 线上答疑。 5 月 10 号():罗文分享,主题为“一个方法解锁 COEZ 所有插件的用法+如何自动化解锁每天抓取 X 内容+改写+发布到飞书”,20:00 21:00 罗文分享。 5 月 11 号():Itao 分享,主题为“和 AI 成为搭子”,线上答疑。流程为 20:00 21:00 Itao 分享,21:00 21:30 线上答疑。 此外,还有以下案例合集和教程:
2025-02-22
如何搭建自己的知识库
搭建自己的知识库可以参考以下步骤: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM 生成答案。 2. 文本加载器:将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建: 涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限。 OpenAI 提供了 embedding API 解决方案,embeddings 是浮点数字的向量,向量间距离衡量关联性,小距离表示高关联度。 4. 本地知识库进阶: 可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建 Workspace 构建本地知识库,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案),最后进行测试对话。 总之,搭建知识库需要不断实践和探索,“看十遍不如实操一遍,实操十遍不如分享一遍”。
2025-02-20
当前DEEPSEEK发展壮大情况下,个人应具备AI方面什么能力避免被时代淘汰,如何提升这些能力,细化具体可执行的步奏
在 DEEPSEEK 发展壮大的情况下,个人为避免被时代淘汰,应具备以下 AI 方面的能力并通过以下具体可执行的步骤来提升: 1. 善用工具: 历史表明,使用工具的人通常表现更优,人类发展就是工具演化的过程。 不会用 AI 工具自动化重复性任务,可能面临被淘汰,应适应这种转变。 因自动化效率提升,可腾出时间进行高层次思考。 具体步骤:积极学习和掌握 AI 工具的使用方法,将重复性工作交给工具处理,培养利用工具提升效率的习惯。 2. 抽象与整合: “大语言模型”压缩了大量知识,可快速回放,无需直接学习所有知识细节,要在更高层次学习并抽象更多细节。 AI 能使人类更易学习技能或知识,技术进步使“整合”而非专业化成为可能,人们在更高层次工作,为 AI 提供方向并作选择。 具体步骤:锻炼高层次的思维能力,学会从复杂信息中提炼关键要点,不断提升整合能力,将精力集中于制定“策略”,把执行细节交给自动化系统。
2025-02-24
如何权构建个人AI知识库,请提供详尽的方案,并提供相关工具应用案例。
以下是构建个人 AI 知识库的详尽方案及相关工具应用案例: 方案: 1. 知识收集:学习如何有效地收集、整理和检索信息,例如分新闻、观点、访谈、论文翻译来进行提炼。 2. 知识管理:通过实际操作,体验工具在知识管理方面的应用。 3. 数据处理:使用工具对数据进行转换、提取和呈现,如从图像和图形中提取数据。 4. 内容总结:总结视频内容、翻译和改换风格等。 工具应用案例: 1. 知识收集与整理: 通义听悟整理录音笔记:https://tingwu.aliyun.com 用 React 实现选中即解释 本机跑大语言模型工具:https://ollama.com 选词翻译、解读、拓展:https://snapbox.app 与各种 AI 机器人聊天:https://opencat.app 、https://chathub.gg/ 、https://www.elmo.chat/ 定义提示语,根据不同类型提取有用信息:https://memo.ac/zh/ 2. 数据获取与处理: 下载视频:Mac 用 Downie,Windows 推荐 IDM 淘宝数码荔枝店购买 开源免费屏幕录制工具 OBS:https://obsproject.com/ 用 losslessCut 快速切块 3. 构建知识库: 将文本转换成向量(如使用 embeddings API),先把大文本拆分成若干小文本块(chunk),将小文本块转换成 embeddings 向量并在向量储存库中保存,当用户提问时,通过比对向量提取关联度最高的文本块与问题组合成新的 prompt 发送给 GPT API。 例如对于一篇包含多个文本块的文章,如“文本块 1:本文作者:越山。xxxx。”“文本块 2:公众号越山集的介绍:传播效率方法,分享 AI 应用,陪伴彼此在成长路上,共同前行。”等,当提问“此文作者是谁?”时,可通过比较 embeddings 向量找出关联度最高的文本块。 4. 工具入门: 提示词:现成好用的 Prompt: AI Agent:Agent 工具 小白的 Coze 之旅: AI Pic:现在主流的 AI 绘图工具网站:
2025-02-22
AI智能体接入个人微信的应用
以下是关于 AI 智能体接入个人微信的应用的相关信息: 国内版的扣子是一款在 AI 应用领域知名度高的产品,功能丰富,支持知识库、工作流和插件等,其社区市场完善,用户可选择官方或其他用户创建的插件和 AI Agent,且支持多种接入方式,包括接入个人微信公众号,还支持接入企业服务号和企业微信。但普通版本和专业版主要接入国内模型,可能存在性能和稳定性问题。 Coze 可以实现多模态资讯的跨平台推送,通过登录宝塔面板,在上面部署 docker 容器,启动 COW 项目与微信取得关联。具体步骤包括在宝塔面板中进行可视化控制云服务器,添加 Docker 项目模板,创建容器并编排,扫码等操作。 熊猫大侠介绍了基于 COW 框架的 ChatBot 实现步骤,可实现多种功能,支持多平台、多模型、多消息类型和多部署方法。但需要注意接入大模型 API 需单独付费,微信端接入有封号风险,操作需依法合规,注意数据处理和遵守法律法规。 此外,张梦飞同学写了更适合小白的使用教程:【保姆级】一步一图,手把手教你把 AI 接入微信副本
2025-02-21
实现基于个人聊天记录的数字分身的最佳实践
实现基于个人聊天记录的数字分身的最佳实践包括以下方面: 虚拟数字人的类型和驱动方式: 虚拟数字人通过各种技术创造,具有外观、行为和思想等人类特征,呈现为虚拟形象。 从驱动层面可分为中之人驱动和 AI 驱动两类。中之人驱动运用动作捕捉和面部捕捉技术实现交互,有上限且缺乏高并发和量产化能力;AI 驱动使用 AI 技术创建、驱动和生成内容,赋予感知和表达等交互能力。 虚拟数字人的应用类型: 服务型:如虚拟主播、助手、教师、客服和医生等,为物理世界提供服务。 表演型:如虚拟偶像,用于娱乐、影视等场景。 身份型:是物理世界“真人”进入虚拟世界的数字分身,在元宇宙中有广泛应用场景。 相关开源项目: 熊猫大侠基于 COW 框架的 ChatBot 最新版本支持多端部署、基础对话、语音识别、图片生成、丰富插件、Tool 工具和知识库等功能。可接入个人微信、微信公众号、企业微信应用,支持多种模型和个性化插件扩展,通过上传知识库文件自定义专属机器人,可作为数字分身、领域知识库、智能客服使用。项目地址包括 Github:https://github.com/zhayujie/chatgptonwechat ,Gitee:https://gitee.com/zhayujie/chatgptonwechat 。
2025-02-20
DeepSeek搭建 个人知识库
以下是关于 DeepSeek 搭建的相关知识: 对于个人知识库的搭建,您可以参考以下内容: 章节“三.使用 DeepSeek R1 给老外起中文名”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareDyEMdmCPOo98S6xbPfNcsuEOnuh 知识点“Node.JS 安装”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcsharePVnndBSV5oWOukx38tKcw2CPnub 申请“DeepSeek R1 API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareTrXednqLAoH3VLxrUiYc1Pb9nhf 网页接入“DeepSeek API”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareUK5xdzhiaoo9RkxHR5bcs30pnV8 章节“一.Trae 的介绍/安装/疑难杂症”:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareR4GvdgOzeoC9mOxd1hScuql6nVY Python 安装:https://waytoagi.feishu.cn/wiki/O5V5wLC5Jiilpjk9j9RcAuACnZcshareKcojdhid9oWJPjxAvEOczRt0nkg 一个提示词让 DeepSeek 的能力更上一层楼的相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,视频链接: 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手 五津:DeepSeek+扣子:1 分钟生成小红书爆款单词视频: 先观察此类视频规律,如先问这是什么→再揭晓结果,反复多次。 拆解视频模板的制作流程,逐个轨道分析,注意各轨道上的元素时间对应关系。 涉及的知识点可用于用扣子工作流来搭建。
2025-02-20
现在有哪些个人知识库软件可以用,请推荐。
以下是为您推荐的个人知识库软件: 1. Coze:如果您想使用专门搭建个人知识库的软件,可以参考文章,忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。 2. AnythingLLM:包含所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后,配置页面主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式),配置完成后即可进行对话测试。 此外,还有通过 GPT 打造个人知识库的方法,比如将文本转换成向量节省空间,拆分成小文本块并通过 embeddings API 转换成 embeddings 向量,在向量储存库中保存这些向量和文本块作为问答的知识库。当用户提问时,将问题转换成向量与库中向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。
2025-02-19