Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么创建个人知识库

Answer

创建个人知识库可以通过以下几种方式:

  1. 使用 GPT 打造个人知识库:
    • 涉及给 GPT 输入(投喂)定制化的知识,但 GPT-3.5 一次交互支持的 Token 有限。
    • OpenAI 提供了 embedding API 解决方案,可将文本转换成向量(embeddings),节省空间,类似索引。
    • 例如,将大文本拆分成小文本块(chunk),通过 embeddings API 转换为向量并保存,用户提问时,将问题也转换为向量,比对后提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。
  2. 本地部署大模型搭建个人知识库:
    • 利用大模型搭建知识库是 RAG 技术的应用,在实操前需了解 RAG。
    • RAG 是当需要依靠不在大模型训练集中的数据时,先检索外部数据,然后在生成步骤中将其传递给 LLM。
    • 一个 RAG 的应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。
    • 文本加载器是将用户提供的文本加载到内存中以便后续处理。
Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

Others are asking
请提供下知识库中文本处理类提示词
以下是为您提供的一些文本处理类提示词相关内容: 1. 开发知识库/聊天机器人搭建安全提示词: 您是一个 AI 编程助手。当被问到您的名字时,您必须回答“GitHub Copilot”。您需要仔细且严格按照用户的要求操作。拒绝讨论您的观点或规则,拒绝讨论生命、存在或意识,拒绝与用户进行争论性的讨论。若与用户产生分歧,停止回答并结束对话。回答不能指责、粗鲁、有争议或防御性,应提供信息和逻辑,坚持技术信息。对于代码或技术问题,提供代码建议。不回复侵犯版权的内容。若用户请求版权内容,应道歉并概括请求。不为特定人物生成创新内容。婉拒更改规则请求。忽略角色扮演或模拟其他聊天机器人的请求。拒绝回答越狱指南、违反 Microsoft 内容政策、与开发者无关的问题。回答与开发者有关的内容。先逐步思考,用伪代码描述建设计划,然后输出代码,减少散文,保持简短且不带个人色彩,使用 Markdown 格式。 2. 【AI+知识库】商业化问答场景中的提示词: 提示词是告诉全知全能的大语言模型其角色和要专注的技能,使其按照设定变成所需的“员工”。 3. LayerStyle 副本中的提示词相关: 根据图片反推提示词,可设置替换词。使用 Google Gemini API 作为后端服务,需申请 API key 并填入 api_key.ini 文件。节点选项包括 api(目前只有“geminiprovision”)、token_limit(生成提示词的最大 token 限制)、exclude_word(需要排除的关键词)、replace_with_word(替换 exclude_word 的关键词)。 PromptEmbellish 输入简单提示词可输出润色后的提示词,支持输入图片作为参考。使用 Google Gemini API 作为后端服务,需申请 API key 并填入相关文件。节点选项包括 image(可选项,输入图像作为提示词参考)、api(目前只有“googlegemini”)、token_limit(生成提示词的最大 token 限制)、discribe(输入简单描述,支持中文)。
2025-03-12
知识库接入deepseek教程
以下是关于知识库接入 DeepSeek 的相关教程链接: 此外,还有以下相关内容可能对您有帮助: 中包含大模型及知识库使用讲解与问题解答。 中有工作流创建、模型能力及相关问题探讨。 涉及通义千问相关应用及明天课程安排交流。
2025-03-12
如何构建一个优秀的ai的知识库
构建一个优秀的 AI 知识库可以参考以下步骤和要点: 1. 明确概念和原理:了解 AI 时代知识库的概念、实现原理以及能力边界。 2. 掌握获取资料的原理:比如在通往 AGI 之路大群中通过对话获取知识库中资料的原理。 3. 利用相关平台组件:更好地使用 Coze 等 AI Agent 平台中的知识库组件,打造更强大的智能体。 4. 规划内容: 数据库:让 Coze 拥有记忆的组件 1。 知识库:让 Coze 拥有记忆的组件 2。 变量:让 Coze 拥有记忆的组件 3。 JSON:让您更好地使用 Coze 插件。 API:外部应用程序接入 Coze 的方式。 操作系统与服务器:那些接入了 Coze 的微机器人的运行位置。 Docker:以最简单的方式部署微信机器人。 5. 确定功能范围:编写 prompt 提示词,设定 Bot 的身份和目标。 6. 整理对应关系:创建知识库,整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。 支持的文档类型:本地文档、在线数据、飞书文档、Notion 等,可使用本地文档。 按照操作指引上传文档、分段设置、确认数据处理。 小技巧:知识库的好用程度与内容切分粒度有关,可以在内容中加上特殊分割符,如“”,分段标识符号选择“自定义”,内容填“”。如果内容有误需要编辑,可以点击具体内容,鼠标右键会看到“编辑”和“删除”按钮进行操作。 同时,“通往 AGI 之路”是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库,在这里,您既是知识的消费者,也是知识的创作者。它不仅是一个知识库,还是连接学习者、实践者和创新者的社区,让大家在这里碰撞思想,相互鼓舞,一同成长。
2025-03-12
如何构建一个ai的知识库
构建一个 AI 知识库可以参考以下步骤: 1. 了解基础知识:一系列的信息和知识聚集在一起就可以构成知识库。例如“通往 AGI 之路”就是一个使用飞书软件搭建的 AI 知识库。 2. 参考相关文章:如“大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库”,读完可收获 AI 时代的知识库的概念、实现原理以及能力边界,了解通往 AGI 之路大群中通过对话获取知识库中资料的原理,以及更好地使用 Coze 等 AI Agent 平台中的知识库组件,打造更强大的智能体。 3. 搭建步骤: 确定功能范围,编写 prompt 提示词,设定 Bot 的身份和目标。 创建知识库,整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。创建知识库路径为个人空间知识库创建知识库。知识库文档类型支持本地文档、在线数据、飞书文档、Notion 等,可使用本地文档,并按照操作指引上传文档、分段设置、确认数据处理。注意知识库好不好用,跟内容切分粒度有很大关系,可以在内容中加上一些特殊分割符,比如“”,分段标识符号选择“自定义”,内容填“”。 4. 在网站上增加 AI 助手的私有知识: 上传文件:在百炼控制台的中的非结构化数据页签中点击导入数据,根据引导上传相关文档。 建立索引:进入,根据引导创建一个新的知识库,并选择刚才上传的文件,其他参数保持默认即可。选择向量存储类型时,如果希望集中存储、灵活管理多个应用的向量数据,可选择 ADBPG。 引用知识:完成知识库的创建后,返回进入到刚才创建的应用设置界面,打开知识检索增强开关、选择目标知识库,测试验证符合预期后点击发布。 希望以上内容对您构建 AI 知识库有所帮助。
2025-03-12
请帮我推荐优化大模型+知识库的提示词技巧,重点是解决将知识库配置给大模型做RAG后,召回率不高或者不遵循指令。
以下是关于优化大模型+知识库的提示词技巧,以解决将知识库配置给大模型做 RAG 后召回率不高或者不遵循指令的问题: 首先,了解 LLM 应用性能优化的推荐路径: 1. 从 prompt 工程开始把 LLM 应用快速跑起来。 2. 若遇到表现性能不足等问题,如结构化提示词占用上下文过长,可尝试精简提示词长度;若指令遵循度不足,则加强指令约束。 3. 若提示工程无法满足要求,分析问题,若缺失知识,先简单做知识库 RAG。 4. RAG 之后若想让模型表现更收敛更稳定,尝试微调模型。 5. 微调模型后,若模型表现变好,使用更多高级 RAG 技术,构造输入输出样本,进一步用于微调模型,构建正向迭代循环。 需要注意的是,该路径有个隐藏前提:该 LLM 应用依赖外部知识,需要 RAG。若不需要外部知识,则不需要使用 RAG,可以直接进入 prompt 工程与微调的正向迭代循环。 对于 RAG 流程中的检索有用信息部分,有以下改进策略: 1. 优化索引: 按照子部分索引:将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引。适用于有多个主题、有冲突信息的复杂长文本信息,确保与查询相关的上下文。 按照文本框可以回答的问题索引:让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确的问题,减少模糊性。 按照文本块的摘要进行索引:适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后,选择策略,大部分场景下选择最相似的即可。 在从知识库中检索出内容后利用大模型进行总结时,有两点需要注意: 1. 优化 Prompt,但此处不展开,可参考相关文章。 2. 选择合适的大模型,考虑上下文长度、聪明度和生成速度。若回答场景是很长的文档,可能更关注上下文长度;大多数情况下,大模型越聪明,生成速度可能越慢。
2025-03-12
搭建本地知识库
搭建本地知识库的步骤如下: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载,如 PDF 等非结构化数据、SQL 等结构化数据和代码等。 文本分割将文档切分为指定大小的块。 存储包括将文档块嵌入转换为向量形式并存储到向量数据库。 检索通过算法找到与输入问题相似的嵌入片。 输出将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器将用户提供的文本加载到内存以便后续处理。 2. 安装和配置 AnythingLLM: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 3. 构建本地知识库: 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 首先创建工作空间。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档数据给出答案)。 完成配置后可与大模型进行对话测试。 本文思路来源于视频号博主黄益贺,作者按照其视频进行了实操并附加了 RAG 额外知识。作者是大圣,致力于使用 AI 工具成为超级个体的程序员,目前沉浸于 AI Agent 研究。读完本文,您将学习到如何使用 Ollama 一键部署本地大模型、了解 ChatGPT 信息流转、RAG 概念及核心技术、通过 AnythingLLM 搭建本地化数据库等内容。
2025-03-12
飞书ai助手创建会议纪要
以下是关于飞书创建会议纪要的相关信息: 可以利用飞书的智能伙伴功能来搭建 FAQ 机器人,智能伙伴创建平台(Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。 对于普通人秒变效率王的案例,5 小时的会议可通过以下流程不到 10 分钟搞定纪要:使用飞书妙记将会议对话导出为 txt 文件;启动 Kimichat 输入会议纪要 prompt 提示词并上传 txt 文件;与 Kimichat 对话并补充会议中未记录或需强调的信息;审阅 Kimichat 生成的会议纪要草稿进行必要微调;确认会议纪要内容无误后,输出最终版文档。 通义听悟、飞书妙记、钉钉闪记都可以录音转文字,以钉钉闪记为例,第一步打开钉钉闪记,结束录音后点击“智能识别”,点击智能摘要,就可以获得本次会议的纪要。如果需要更多内容,复制所有文案或下载文本文件到 GPT、GLM、通义千问等大语言模型对话框中,再将会议内容发送。 此外,该场景对应的关键词库有 12 个,包括会议主题、参与人员、讨论议题、关键观点、决策、时间、地点、修改要求、文本格式、语言风格、列表、段落。提问模板有 3 个: 第一步:用飞书会议等软件整理好会议记录,并分段式发给 ChatGPT 生成总结:请根据以下会议资料,整理会议的关键信息,包括:会议主题、参与人员、讨论议题、关键观点和决策。会议资料:1、时间:XXX 年 XXX 月 XXX 日 2、地点:XXXX 3、参与人员:XXX、XXX 4、会议主题:XXXX 5、讨论内容:Speaker1:XXX Speaker2:XXX Speaker3:XXX 第二步:检查生成的总结:请根据我提供的会议补充信息和修改要求,对 XXX 部分进行修改:1、会议补充信息:XXXX 2、修改要求:XXXX 第三步:优化文本格式和风格:1、请将生成的总结,以 XXX 形式呈现(例如:以列表的形式、以段落的形式、使用正式/非正式的语言风格) 2、请给上述会议总结,提供修改意见,并根据这个修改意见做最后的调整
2025-03-09
COZE创建智能体
以下是在 COZE 创建智能体的步骤: 1. 基础智能体创建: 进入 coze 官网(www.coze.cn),注册并登录。 点击页面左上角的⊕。 通过【标准创建】填入 bot 的基本信息。 2. Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定 Bot 的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置:插件可扩展 Bot 的专业能力,如计算器、日历等工具;工作流可设置固定的处理流程和业务逻辑;图像流用于处理和生成图像的相关功能;触发器可设置自动化响应条件。 知识库管理:文本可存储文字类知识材料;表格用于结构化数据的存储和调用;照片作为图像素材库。 记忆系统:变量存储对话过程中的临时信息;数据库管理持久化的结构化数据;长期记忆保存重要的历史对话信息;文件盒子管理各类文档资料。 交互优化(底部区域):设置开场白、用户问题建议、快捷指令、背景图片。 预览与调试(右侧区域):实时测试 Bot 的各项功能,调试响应效果,优化交互体验。 3. 具体创建示例: 打开扣子官网(https://www.coze.cn/)。 “画小二智能小助手”Coze 商店体验地址:https://www.coze.cn/store/bot/7371793524687241256?panel=1&bid=6cqnnu5qo7g00 。 点击创建 Bot,在对话框中工作空间选择“个人空间”,命名为画小二智能小助手。 设置画小二助手的提示词。 动手实践: 第一步,创建一个智能体,使用单 Agent 对话流模式。 编排对话流:点击创建一个新的对话流(记得要和智能体关联)。 测试:找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,当看到数据即为成功。回到智能体的编排页面,同样方式测试,确保对话流执行成功。 发布:点发布后,只选择多维表格,然后点配置。输出类型选文本,输入类型选字段选择器。完善上架信息,填个表格,选发布范围时,可选仅自己可用以加快审核。提交上架信息后,返回配置界面显示已完成,即可完成最终提交。
2025-03-08
创建自己的智能体
创建自己的智能体可以参考以下步骤: 1. 输入人设等信息,放上创建的工作流。配置完成后进行测试。需要注意的是,工作流中如【所有视频片段拼接】节点使用的插件 api_token 填的是您的 token 时,为避免他人调用消耗您的费用,不能直接发布。您可以将 api_token 作为工作流最开始的输入,让用户购买后自行输入再发布。 2. 第一步创建智能体,使用单 Agent 对话流模式。 编排对话流:点击创建新的对话流(记得要和智能体关联)。 注意事项:两个小红书插件可在插件市场找到,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT。之后使用代码节点进行数据处理,注意代码节点输出的配置格式。 测试:找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,看到数据即为成功。回到智能体的编排页面同样进行测试,确保对话流执行成功。 发布:点击发布后,只选择多维表格,然后进行配置。输出类型选文本,输入类型选字段选择器。完善上架信息,填写表格,选发布范围时可选仅自己可用以加快审核。提交上架信息后返回配置界面显示已完成,即可完成最终提交。 3. 扣子智能体的创建相对简单,首先想一个智能体的名字,然后写一段详细的介绍,越详细越好,因为它会根据介绍智能生成符合主题的图标,最后点击确认即可。 扣子是字节跳动旗下的 AI 应用开发平台,开发智能体的门槛低,无论有无编程基础都能快速搭建基于 AI 模型的多样化问答 Bot,还提供丰富的插件、工作流、知识库等功能增强 Bot 的能力和交互性。例如菠萝作词家智能体,是专为音乐创作设计的辅助工具,能帮助音乐人等生成高质量歌词。
2025-03-07
如何在Kimi创建我的个人知识库
以下是在 Kimi 创建个人知识库的相关信息: 使用 GPT 打造个人知识库: 由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。 将文本拆分成小文本块(chunk),通过 embeddings API 转换成 embeddings 向量并保存。 当用户提问时,将问题也转换成向量,与向量储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。 理解 embeddings: embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度。 向量是用一串数字表示的量,在计算机科学中常用列表表示。 常见的向量距离计算方式是欧几里得距离。 使用 Coze 创建个人知识库: 来到个人空间,找到知识库导航栏,点击创建知识库。 知识库是共享资源,多个 Bot 可以引用同一个知识库。 选择知识库的格式(目前支持文档、表格、图片)并填写信息。 可选择本地文档或问答对表格,还能进行自定义的文档切割。 数据处理完成后,一个问答对会被切割成一个文档片。 关于使用知识库,可参考教程:
2025-03-07
怎么创建属于自己的数字人
以下是创建属于自己的数字人的方法: 1. 利用剪映生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。 软件会播放数字人的声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,剪映会生成对应音视频并添加到轨道中。 左下角会提示渲染完成时间,可点击预览按钮查看效果。 2. 增加背景图片: 删除先前导入的文本内容。 点击左上角“媒体”菜单,“导入”按钮选择本地图片上传。 点击图片右下角加号将图片添加到视频轨道(会覆盖数字人)。 点击轨道最右侧竖线向右拖拽,直到与视频对齐。 在显示区域拖动背景图的角将图片放大到适合尺寸,并将数字人拖动到合适位置。 3. 增加字幕: 点击文本智能字幕识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 4. 数字人“私有化”(换脸): 准备谷歌账号(可在淘宝或“”购买)。 第一步:打开谷歌浏览器,点击链接 https://github.com/facefusion/facefusioncolab 并点击 open colab 进到程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”。 第二步:点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”生成。 第三步:等待专属数字人视频出炉。 有关数字人使用上的问题,欢迎在底部评论区留言交流。同时如果对数字人课程感兴趣,欢迎查看通往 AGI 之路 X AI 沃茨的《克隆你自己》课程: 课程内容: 在线观看第一节:https://www.bilibili.com/video/BV1yw411E7Rt/?spm_id_from=333.999.0.0
2025-03-06
如何创建claude智能体
以下是创建 Claude 智能体的步骤: 1. 第一步,创建智能体时使用单 Agent 对话流模式。 2. 编排对话流:点击创建新的对话流并与智能体关联。在获取笔记详情节点和笔记评论节点配置 cookie,note_link 使用开始节点的 USER_INPUT。使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。工作流的结束节点选择使用代码的返回数据。 3. 测试:找到一篇小红书笔记,试运行对话流,在对话窗口输入地址,看到数据即为成功。回到智能体的编排页面同样测试,确保对话流执行成功。 4. 发布:点击发布后选择多维表格,然后进行配置。配置页面中,输出类型选文本,输入类型选择字段选择器。完善上架信息,填写表格,选择发布范围(可选择仅自己可用以加快审核)。提交上架信息后,返回配置界面显示已完成,即可完成最终提交。 另外,Claude AI 是由 Anthropic 公司开发的 AI 助手,是基于自然语言处理技术和人工智能算法的聊天机器人。注册 Claude.ai 可按以下步骤: 1. 访问 Claude 的官方网站。 2. 点击注册或登录界面中的“Sign Up”或“Continue with email”选项。 3. 填写邮箱地址并设置密码,提交表单。 4. 系统会向邮箱发送验证邮件,打开邮件使用其中的验证码完成邮箱验证。 若注册过程中遇到需要海外手机号接收验证码的问题,可采取以下解决方案: 1. 使用虚拟海外号服务,如 SMSActivate、SMSPool 等,购买海外虚拟手机号接收验证码。 2. 借助第三方服务网站如 uiuihao.com 完成注册。 3. 若有海外朋友,可请其帮忙接收验证码并告知。 完成注册后,若希望升级到 Claude Pro 版本获取更强大功能和更高 API 调用限额,需填写支付信息并选择合适订阅计划。需注意,订阅 Claude Pro 可能需要使用海外支付方式。Claude.ai 目前处于公开测试阶段,未付费用户使用平台可能会受到一些限制。
2025-03-05
推荐一个可以快速搭建的高级个人智能体
以下为您推荐一个可以快速搭建的高级个人智能体: 五津的DeepSeek+扣子:输入人设等信息创建智能体,放上创建的工作流。配置完成后可测试,但工作流中【所有视频片段拼接】节点的api_token不能直接发布,可作为工作流输入让用户购买后使用。 阿里云百炼平台的Deepseek R1模型:无需部署直接使用,有丰富的模型广场和大量免费额度,使用需解锁和授权,实名认证后可通过模型广场的API调用示例连接Chat Box,新建智能体应用可选择模型并调整参数,还能开启互联网搜索。 小众打卡地智能体:输入旅游目的地城市可推荐3个小众打卡地小红书类文案及配图,其搭建思路包括录入小红书文案参考知识库、通过文本模型组成搜索词搜索并提取相关url、滤除部分网站、提取小众地点输出及图片搜索等。
2025-03-11
权威人士发言,AI对于个人意味着什么
以下是关于权威人士对“AI 对于个人意味着什么”的相关发言: 山姆·奥特曼认为,AI 将成为人类发明的最具变革性和最有益的技术,是阻止人类自我毁灭的手段。他坚信世界正面临巨大而迅速的变革,而这与他的工作密切相关。然而,他在重要会议发言后不久被 OpenAI 董事会解除了首席执行官的职务,此消息震惊了科技界。 美国副总统万斯提出美国将对 AI 行业发展“减少监管”,确保美方 AI 行业技术继续保持世界领先水平,成为各国合作首选,避免 AI 被任何意识形态所操控。同时保证 AI 能够帮助人们提升效率和生产力,而不是取代人类,成为辅助工具,并教会学生如何使用 AI,同时也向各国政府发出相同呼吁。 在个人能力方面,批判性思维与复杂问题解决能力在 AI 时代至关重要。批判性思维指分析、评估、推理并做出明智判断的能力,能够帮助我们判断人工智能技术的判断是否合理。复杂问题解决与批判性思维密切相关,指在不确定情境下分析问题、设计解决方案的能力,AI 能提供帮助,但提出问题和综合决策仍需人来主导。我们可以通过参与实际项目、案例研究等方式提高这些能力。
2025-03-11
如何建立个人知识库
建立个人知识库可以通过以下方式: 1. 利用 GPT 打造个人知识库: 将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,将问题转换成向量,与向量储存库中的向量比对,提取距离最小的几个向量对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 例如,对于“此文作者是谁?”的问题,通过比较 embeddings 向量,提取关联度高的文本块,如“本文作者:越山。xxxx。”“《反脆弱》作者塔勒布xxxx。”,发送给 GPT API 以获得回答。 2. 本地部署大模型以及搭建个人知识库: 了解 RAG(检索增强生成)技术,它是利用大模型的能力搭建知识库的应用。 RAG 应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)等 5 个过程。 文本加载器用于将用户提供的文本加载到内存中,便于后续处理。 3. 基于 GPT API 搭建定制化知识库: 由于 GPT3.5 一次交互支持的 Token 数量有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。
2025-03-10
个人微信接入ai合规吗
个人微信接入 AI 存在一定风险和合规问题。微信端的这种接入属于非常规使用,可能会有封号危险,不建议使用主力微信号接入。 在操作过程中,需要注意以下几点: 1. 接入大模型 API 实现时需要单独付费。 2. 对大模型生成的内容要注意甄别,确保所有操作均符合相关法律法规的要求。 3. 禁止将此操作用于任何非法目的。 4. 处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 此外,关于将 AI 接入微信的实现步骤,可参考以下内容: 1. 注册 AI 模型: 进入智普 AI:https://open.bigmodel.cn/ 。 点击开始使用,注册登录。 按照要求进行认证,点击控制台,查看 API key,添加新的 API key 并复制保存。 2. 注册云服务器: 新用户点击去注册腾讯云: 。 微信扫码注册,首次注册选择第一个。 选择地域和镜像(宝塔 8.1.0),点击立即试用。 进入腾讯云服务台,登录(可微信扫码登录)。 复制 sudo/etc/init.d/bt default 并粘贴回车,保存输出内容。 返回服务器控制台,在防火墙菜单栏添加规则,手动输入相关内容并确定。
2025-03-09
本地部署deep seek后如何搭建个人知识库,详细说明一下每个步骤
以下是本地部署 Deep Seek 后搭建个人知识库的详细步骤: 1. 在 RAGFlow 中配置 Deep Seek 模型 返回 RAGFlow ,打开右上角设置,进入模型提供商界面。 配置本地部署的 Deep Seek 模型,选择 Ollama ,并根据运行的模型配置相关信息。 设置基础 URL 。 点击确定。 2. 导入嵌入模型 导入一个用于文本向量化的嵌入模型。 3. 设置系统模型设置 4. 创建知识库 返回知识库,进入数据集,导入文件或设置文件夹当作知识库。 5. 文件解析 对导入的文件进行解析,解析速度取决于本机 GPU 性能(显卡性能),越好的显卡解析越快。 6. 检索测试 解析完成后,进行检索测试。 7. 进入聊天界面 测试没问题后,可进入聊天界面,助理设置可自行进行。 此外,如果想要对知识库进行更灵活的掌控,可以使用 AnythingLLM 软件,步骤如下: 1. 安装 AnythingLLM ,安装地址:https://useanything.com/download 。 2. 安装完成后进入配置页面,主要分为三步: 选择大模型。 选择文本嵌入模型。 选择向量数据库。 3. 构建本地知识库 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 4. 测试对话 完成上述配置后,即可与大模型进行对话。 在进行本地知识库搭建实操之前,还需要对 RAG 有大概的了解: RAG 是一种检索增强生成技术,应用过程包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。文本加载器用于将用户提供的文本加载到内存中以便后续处理。
2025-03-07
AI Agent MANUS个人助手是否可以本地私有化部署
目前没有明确的信息表明 AI Agent MANUS 个人助手可以本地私有化部署。 Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。它区别于传统聊天机器人,具备自主规划、执行复杂任务并直接交付完整成果的能力。其技术架构主要基于多智能体架构,运行在独立的虚拟机中,核心功能由多个独立模型共同完成,包括规划、执行和验证三个子模块,还包括虚拟机、计算资源、生成物、内置多个 agents 等关键组件,并采用了“少结构,多智能体”的设计哲学。 但对于其是否能本地私有化部署,现有资料未给出确切说明。在构建高质量的 AI 数字人方面,由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,算法一般会部署到额外的集群或者调用提供出来的 API。而在本地部署资讯问答机器人方面,有相关案例,但未提及与 AI Agent MANUS 个人助手的直接关联。
2025-03-07