Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何搭建私人知识库

Answer

搭建私人知识库可以参考以下方法:

  1. 基于 GPT 搭建:
    • 给 GPT 输入(投喂)定制化的知识,但 GPT-3.5(即当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,容量对于绝大多数领域知识不够。
    • OpenAI 提供了 embedding API 解决方案,embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。
    • 将大文本拆分成若干个小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,当用户提出问题时,将问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。
  2. 本地部署大模型搭建:
    • 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。
    • RAG 的应用包括文档加载(从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)、Output(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案)。
    • 文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理。
Content generated by AI large model, please carefully verify (powered by aily)

References

从零开始,用GPT打造个人知识库

要搭建基于GPT API的定制化知识库,涉及到给GPT输入(投喂)定制化的知识。但GPT-3.5,也就是当前免费版的ChatGPT一次交互(输入和输出)只支持最高4096个Token,约等于3000个单词或2300个汉字。这点容量对于绝大多数领域知识根本不够。为了使用GPT的语言能力来处理大量的领域知识,OpenAI提供了embedding API解决方案。参考OpenAI embedding documents。[heading2]理解embeddings[content]embeddings(直译为嵌入)是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。进一步解释:向量(列表):向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。列表是一种数据结构,它包含一组有序的元素。例如,一个二维向量可以表示为[2,3],这意味着沿着两个轴的分量分别为2和3。在这里,"list"是一种编程术语,意味着一系列有序的数据。向量之间的距离:向量之间的距离是一种度量两个向量相似性的方法。有多种方式可以计算两个向量之间的距离,最常见的是欧几里得距离。欧几里得距离计算方法是将两个向量的对应元素相减,然后取平方和,再开平方。例如,向量A=[1,2]和向量B=[4,6]之间的欧几里得距离为sqrt((4-1)^2+(6-2)^2)=5。较小距离意味着高相关性,因为向量间相似度高。在OpenAI词嵌入中,靠近向量的词语在语义上相似。例如,“猫”和“狗”距离近,它们都是宠物,与“汽车”距离远,相关性低。文档上给了创建embeddings的示例上面的命令访问embeddings API接口,将input语句,转化成下面这一串浮点数字。

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

Others are asking
本地怎么构建知识库
以下是关于本地构建知识库的详细步骤和相关知识: 一、硬件配置要求 运行大模型需要较高的机器配置,个人玩家可能负担不起。 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 二、RAG 技术 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 RAG 是指检索增强生成(Retrieval Augmented Generation),当需要依靠不包含在大模型训练集中的数据时,通过以下 5 个过程实现: 1. 文档加载(Document Loading):从多种不同来源加载文档。LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块。 3. 存储:涉及将切分好的文档块进行嵌入(Embedding)转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 三、本地知识库搭建步骤 如果想要对知识库进行更加灵活的掌控,需要一个额外的软件:AnythingLLM。 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后,会进入到其配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式。AnythingLLM 提供了两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 测试对话:当上述配置完成之后,就可以跟大模型进行对话了。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可以联系作者或者加作者的免费知识星球(备注 AGI 知识库)。
2025-01-22
如何搭建定制知识库
以下是关于如何搭建定制知识库的相关内容: 要搭建基于 GPT API 的定制化知识库,需要给 GPT 输入定制化的知识。但 GPT3.5(即当前免费版的 ChatGPT)一次交互支持的 Token 数量有限,约 4096 个,相当于 3000 个单词或 2300 个汉字,容量对于多数领域知识不够。为处理大量领域知识,OpenAI 提供了 embedding API 解决方案,可参考 OpenAI embedding documents。 embeddings 是浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。向量是用一串数字表示大小和方向的量,在计算机科学和数据科学中通常用列表表示。向量之间的距离是度量相似性的方法,常见的如欧几里得距离。在 OpenAI 词嵌入中,靠近的向量词语在语义上相似。 LlamaIndex 是更高一层 LangChain 的抽象,之前叫 GPT Index。之前的文章中的例子使用了 LlamaIndex 包,它简化了 LangChain 对文本分割和查询的接口,并提供了更丰富的 Data Connector。LlamaIndex 只针对 GPT Model 做 Index,而 LangChain 可对接多个 LLMs,可扩展性更强。参考 https://gptindex.readthedocs.io/en/latest/ 在基于大模型+知识库的 Code Review 实践中,对于自定义知识库飞书文档(自定义),没有格式要求,能看懂正确代码即可。可直接使用 LangChain 提供的文档加载类,对有权限的飞书文档进行获取,使用 CharacterTextSplitter/RecursiveCharacterTextSplitter 将文本分割成固定长度的块(chunks),方法有两个主要参数:chunk_size 控制每个块的长度,如设置为 1024,则每个块包含 1024 个字符;chunk_overlap 控制相邻两个块之间的重叠长度,如设置为 128,则每个块会与相邻块重叠 128 个字符。 因为大模型有足够多的数据,想让大模型按要求执行就需要用到“Prompt 提示词”。 最近各家大厂接连放大招,AI 技术和应用突飞猛进,GPT4 接口已支持最大 32K 输入,AI 的开发和使用门槛会越来越低。垂直领域知识库的搭建和优化可能更多是业务问题,而非技术问题。
2025-01-22
我是一名数据产品经理,想转行ai产品经理,该从哪里入手。你的知识库里有哪些可以帮到我。最好把他们列举出来,具体一些最好有步骤
以下是为您整理的从数据产品经理转行 AI 产品经理的相关知识和建议: 一、AIPM 技能树 1. 理解产品核心技术 了解基本的机器学习算法原理,有助于做出更合理的产品决策。 2. 与技术团队有效沟通 掌握一定的算法知识,减少信息不对称带来的误解。 3. 评估技术可行性 在产品规划阶段,能更准确地判断某些功能的技术可行性。 4. 把握产品发展方向 了解算法前沿,更好地把握产品的未来发展方向。 5. 提升产品竞争力 发现产品的独特优势,提出创新的产品特性。 6. 数据分析能力 掌握相关知识,提升数据分析能力。 二、AI 提示词工程师岗位技能要求 1. 学历和专业背景 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 2. 熟悉 AI 工具 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 3. 项目经验 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 4. 技术理解 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 5. 数据分析与决策 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 6. 创新思维 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 7. 技术关注 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 8. 编程能力 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 三、AI 市场与 AI 产品经理分析 当前有两个场景: 1. 企业(包括传统企业和互联网企业)如何实现 AI 转型或用好 AI。 2. 产品经理如何转型 AI 产品经理。 希望以上内容对您有所帮助。
2025-01-21
适合小白的AI知识库
以下是适合小白的 AI 知识库内容: 通识篇: 现有常见 AI 工具小白扫盲: 文章链接: 视频链接:(1 小时 32 分开始) 适用人群:对 AI 都没太多概念的纯纯小白 简要说明:给与 AI 之间有道墙、还在墙外的人简单介绍当前各种 AI 工具、0 成本最快速感受当下 AI 工具的力量 AI 常见名词、缩写解释: 文章链接: 适用人群:对 AI 都没太多概念的纯纯小白 简要说明:给看不懂“黑话”和诸多缩写的小白,请善用这张表+多问 AI 对话工具(如豆包 or Kimi)结合食用 工具入门篇: (Prompt)现成好用的 Prompt: 文章链接: 适用人群:完全没有 AI 使用经验,只下载过 kimi、豆包、chatgpt 一类对话软件的小白 简要说明:想直接拿好用的提示词拿来用用的小伙伴,可以从这里开始,有很多可以直接复制、粘贴的优秀 prompt 案例,它们都有完整的结构。 (AI Agent)Agent 工具 小白的 Coze 之旅: 文章链接: 视频链接:Coze 之旅 1.0: 适用人群:完全没有编程基础,但对 AI 已有一点概念的小白 简要说明:为纯粹小白补的分享 AI AGENT 搭建平台,为什么是它、怎么 30 分钟就能开始用它 (AI Pic)现在主流的 AI 绘图工具网站: 文章链接: 适用人群:完全没接触过 AI 出图、只是听说过的小伙伴 简要说明:为纯粹的小白提供一个工具列表和扫盲 (AI Tools)数据工具 多维表格小白之旅: 文章链接: 视频链接: 适用人群:Excel 重度使用者、手动数据处理使用者、文件工作者 简要说明:用表格 + AI 进行信息整理、提效、打标签,满足 80%数据处理需求 (AI Code)编程工具 Cursor 的小白试用反馈: 文章链接: 适用人群:0 编程经验、觉得编程离我们很遥远的小白 简要说明:通过 AI 工具对编程祛魅,降低技术壁垒 (AI Music)音乐工具 Suno 的小白探索笔记: 文章链接: 适用人群:0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白 简要说明:AI 赋能音乐创作,无需乐理知识即可参与音乐制作
2025-01-20
从0到1搭建知识库
从 0 到 1 搭建知识库的方法如下: 【智能体】让 Coze 智能体机器人连上微信和微信群: 创建智能体: 知识库:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据。自动清洗数据会出现目前数据不准的情况,本节视频就尝试使用手动清洗数据,提高数据的准确性。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档,其中每个问题和答案以分割,暂时不要问为什么。选择飞书文档、自定义的自定义,输入,然后就将飞书的文档内容以区分开来,这里可以点击编辑修改和删除。点击添加 Bot,添加好可以在调试区测试效果。 本地文档:本地 word 文件,注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容格式依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能够搜到。 使用 Dify 构建知识库: 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 配置索引方式:Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 【知识库】FastGPT + OneAPI + COW 带有知识库的机器人: 创建知识库应用: 地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/ 进入后,点击应用并创建,选择 qwen 模型。 创建知识库。点击知识库 选择 qwen Embedding 1 点击确认创建。 上传文件,等待处理,最后文本状态是“已就绪”。 回到刚刚创建的应用,关联上创建的知识库。 点击两个发布。之前第一个叫做保存。 点击新建,创建 key。创建后保存同时将 API 根地址最后加上/v1 并保存下来。 安装并接入 cow: 回到宝塔,打开【终端】。 依次粘贴并回车:cd/root 。 git clone https://github.com/zhayujie/chatgptonwechat ,注意一定要粘贴完整。 出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续一行一行,依次输入:cd chatgptonwechat/ ,pip install r requirements.txt 。 等待执行完成,继续粘贴:pip install r requirements optional.txt 。 上边的都执行完成后,到“文件”菜单中去执行,点击文件 找到 root,进入 root 文件夹,找到 chatgpt on wechat 文件夹,并进入。
2025-01-19
个人知识库搭建
个人知识库搭建主要包括以下内容: 1. RAG 技术: 利用大模型能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载(从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入并转换为向量形式存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 2. GPT 相关: 搭建基于 GPT API 的定制化知识库涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。 3. 本地知识库进阶: 若要更灵活掌控知识库,可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。 最后,“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可联系相关人员或加入免费知识星球(备注 AGI 知识库)。
2025-01-19
我想学习智能体搭建
以下是关于智能体搭建的相关知识: 智谱 BigModel 共学营第二期:把你的微信变成超级 AI 助理 1. 注册智谱 Tokens 智谱 AI 开放平台:https://bigmodel.cn/ 新注册用户,注册即送 2000 万 Tokens 充值/购买多种模型的低价福利资源包 直接充值现金,所有模型可适用:https://open.bigmodel.cn/finance/pay 语言资源包:免费 GLM4Flash 语言模型/ 多模态资源包: 多模态资源包: 所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 共学营报名赠送资源包 2. 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 3. 进入智能体中心我的智能体,开始创建智能体。此流程会手把手进行编辑,完成一个简单智能体的搭建,此智能体完成以下功能: 小众打卡地——优秀创作者奖 1. 智能体基本信息 名称:小众打卡地 链接:https://tbox.alipay.com/pro/share/202412APCyNn00194489?platform=WebService 2. 基本功能介绍:小众打卡地推荐,输入一个旅游目的地地点城市,给您推荐 3 个小众打卡地小红书类文案,适合分享或旅游参考,还有精美的旅行地配图。 3. 智能体核心价值 为用户发掘非大众化的特色景点,避开人流 提供个性化的旅行建议,并且有目的地的图片参考 帮助用户快速获取高质量的旅行参考信息 提供小红书文案,也适合发小红书 4. 智能体效果 输入一个目的地后,等待一小段时间,即可获得带图文案。从手机支付宝小程序更加方便,可以一键复制后获取。 5. 智能体搭建思路重点 录入了小红书的相关文案参考知识库 通过文本模型组成搜索词进行搜索,从搜索到的所有网页链接中,通过代码节点提取相关的 url 用代码节点滤除需要安全认证的网站,包括挑选一些非周边城市攻略推荐,并且尽量检查“小众”或“冷门” 通过 url 网页正文后,提取相关的小众地点输出,同时通过代码进行打卡点的字符串输出用于后续节点运用 根据需要搜索的小众旅行地进行图片搜索。此处代码节点随机提取一条图片的 url,注意此处在调试过程中发现有些图片搜索后的 url 打卡图片会失效,代码节点将部分失效的网站进行了过滤 最后的文案输出,非常适合小红书文案和旅行发布参考 智能体在品牌卖点提炼中的应用 1. 确定智能体的结构 按照市场营销的逻辑组织智能体的结构。 2. 搭建完整智能体 以品牌卖点提炼六步法为核心的流程,将其他的分析助手加入工作流中,包括: 品牌卖点定义与分类助手 品牌卖点提炼六步法 STP 市场分析助手 用户画像分析助手 触点收集助手 同时还包括一些结构中没有体现,但是在后续的品牌卖点应用过程中有效的分析工具: 用户需求分析的 KANO 助手 营销六层转化漏斗分析 超级转化率六要素
2025-01-22
扣子应用搭建示例
以下是关于扣子应用搭建的相关内容: 白嫖 Groq 平台算力的落地应用: 通过扣子工作流,用代码模块进行 HTTP 访问,实现 0 token 脱离扣子模型来使用 Groq 作为 LLM,可参考梦飞大佬教程将扣子接入微信机器人(有微信封号风险)。 由于 Groq 的 API 与 OpenAI 的 API 几乎兼容,可以适配到任何 APP 产品填 APIKEY 调用的场景,以沉浸式翻译为例。 接入手机类 APP,比如通过快捷方式接入 Siri。 接入扣子工作流:搭建细节可移步 WaytoAGI 自学。建立工作流只需一个代码节点,需配置代码节点的输入引用、输出等。可建立 Bot 调用工作流,但建议不发布,以免代理流量被他人使用。 在扣子调用已有的 API 制作插件: Body:用于传递请求主体部分,GET 方法中通常不用于传递参数。 Path:用于定义请求路径部分,GET 方法中可传递参数,常编码为 URL 一部分。 Query:用于定义请求查询部分,是 GET 方法中常用的参数传递方式。 Header:用于定义 HTTP 请求头信息部分,GET 方法中通常不用于传递参数。配置输出参数,填对后可点击自动解析,调试与校验工具是否能正常运行。 搭建邮票收藏馆应用: 业务背景与逻辑梳理:源于客户需求,功能包括生成邮票、收藏邮票、收藏列表、查看藏品详情,规划了生成和查看两个页面。 页面设计: 第一页:导航栏有应用名称、查看收藏入口、用户头像;陈列展示生成的图片;生成和收藏部分可输入关键字生成并收藏。 第二页:收藏列表会加载用户所有收藏,数量超 100 需优化加翻页;收藏详情可查看大图、关键字、收藏时间。
2025-01-21
搜索模型搭建
以下是关于搜索模型搭建的相关知识: 嵌入(Embeddings): 概述:第一代模型(以001结尾的模型)都使用 GPT3 分词器,最大输入为 2046 个分词。第一代嵌入由五个不同的模型系列生成,针对三个不同任务进行调整,包括文本搜索、文本相似性和代码搜索。搜索模型成对出现,有用于短查询和长文档的。不同系列包括多种质量和速度不同的型号,如 Davinci 能力最强但更慢更贵,Ada 能力最差但速度快成本低。 相似性嵌入:最擅长捕捉文本片段之间语义相似性,如 textsimilaritybabbage001、textsimilaritycurie001、textsimilaritydavinci001。 文本搜索嵌入:有助于衡量长文档与短搜索查询的相关性,使用两种模型,分别用于嵌入搜索查询和要排名的文档,如 textsearchadaquery001 等。 代码搜索嵌入:与搜索嵌入类似,有两种类型,分别用于嵌入自然语言搜索查询和要检索的代码片段,如 codesearchadatext001 等。对于001 文本嵌入,建议将输入中的换行符替换为单个空格。 部署大语言模型: 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器中,若出现相关字样表示安装完成,即 http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型:Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑按下 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”选择“终端”应用程序,复制相关命令行粘贴回车等待完成。 检索原理: 信息筛选与确认:对检索器提供的信息进行评估,筛选出最相关和最可信的内容,涉及对信息来源、时效性和相关性的验证。 消除冗余:识别和去除多个文档或数据源中的重复信息。 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等。 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括排序、归类和整合。 语义融合:合并意义相近但表达不同的信息片段。 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式。 大模型生成回答:全新的上下文传递给大语言模型,大语言模型根据提供的信息回答问题。
2025-01-19
如果搭建ai智能体
搭建 AI 智能体可以参考以下步骤: 1. 明确需求:在品牌卖点提炼中,要清楚 AI 智能体是引导型助手,帮助提供思考维度,而非直接给出从 0 到 1 的卖点。 2. 明确 AI 的能力和局限:AI 对公司的诸多方面了解程度接近于 0,如主要产品、产品解决的用户需求、独特之处、获得的认可、核心渠道、核心购买人群、营销手段、期望的新渠道结果等。但 AI 能通过分析数据和信息进行逻辑推理、快速处理和分析数据、利用大量训练数据输出更全面信息、理解用户内容并按正确结构梳理输出。 3. 逐步搭建: 配置工作流,得到可用的工作流(如整理入库、选择内容)。 进行整体配置,包括创建 Bot、填写 Bot 介绍、切换模型(如测试效果较好的通义千问)、添加工作流、新增变量{{app_token}}、添加外层 bot 提示词等。完成后可在「预览与调试」窗口与智能体对话并使用全部功能。
2025-01-19
如果搭建一个智能写作AI
搭建一个智能写作 AI 可以参考以下步骤: 1. 了解生成式人工智能的工作原理: 监督学习在人工智能领域一直占据很大比例,生成式 AI 由监督学习技术搭建。 大语言模型通过使用监督学习不断预测下一个词语来生成文本,需要千亿甚至万亿级别的单词数据库。 2. 认识大语言模型的特点: 大语言模型在写故事、修改文本等方面非常有用。 但它可能会编造故事产生错误信息,需要鉴别信息准确性。 网络搜索与大语言模型有区别,网络搜索可追寻信息来源,大语言模型可提供建议与策略。 3. 明确人工智能的应用空间: 人工智能有大量运用空间,如基于网络界面应用和基于软件程序应用。 使用大语言模型写作,集思广益、头脑风暴很有用,翻译也可以使用,但网络文本较少时效果可能不太好。 4. 搭建 AI 工作流: 学会搭建 AI 智能体,它能根据设定的工作流自动调用不同的 AI 工具完成全流程任务。 例如设计“写作助手”的 AI 智能体,输入文章的主题、风格和要求,它能自动完成文章大纲处理、初稿写作、修改润色和排版等工作。 5. 拆解高效写作的关键步骤: 写作是一个逐步的过程,要先梳理没有 AI 工具时的工作流,再考虑引入 AI 赋能。 比如写公众号文章,要先选题、搜资料、列提纲、起标题、配图片、排版发布等,拆解清楚每个环节,判断 AI 能提供的帮助。
2025-01-19
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤让小白都能成功,并且列出硬件设施。
以下是使用已公布的源代码拥有一个私人 AI 的详细步骤,适合小白操作,并列出所需的硬件设施: 硬件设施: 云服务器 步骤: 1. 利用云服务器,在宝塔面板的终端安装相关命令。可通过以下链接获取详细信息:https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose 。这些命令在宝塔面板的终端安装,安装的 dockercompose 文件位于 /root/dify/docker 目录下。 2. 检查运行情况,使用 docker compose ps 命令,如果 nginx 容器无法运行,可能是 80 端口被占用。将终端输出的代码粘贴给 AI ,按照 AI 的方法检查谁占用了端口,并停止占用进程。确保每一步成功后再进行下一步,可将代码复制询问 AI 以确认。 3. 在浏览器地址栏输入公网 IP(可在腾讯云服务器或宝塔面板地址栏查看,去掉后面的:8888),随便填写邮箱密码建立一个知识库,在知识库中选择设置。 4. 选择模型,国内模型通常有免费额度,例如智谱 AI 。点击设置,从智谱 AI 获取钥匙,进入智谱官网用手机号注册,添加 API keys 并复制。查看免费额度(智谱在资源包管理中查看,赠送 500 万一个月)。 5. 回到之前的页面,复制钥匙并保存,随便创建一个应用。 6. 可以先选择智谱 glm4 进行测试,聊两句看是否有回应,然后点击发布。 7. 点击 api 秘钥,创建一个并复制。
2024-12-20
怎么用已经公布的源代码,自己拥有一个私人ai。详细步骤,并且列出硬件设施,说明jetson orin nano可以使用什么模型?
目前已公布的源代码种类繁多,要利用其拥有一个私人 AI 并非简单直接的过程,且需要一定的技术知识和经验。 一般来说,以下是大致的步骤: 1. 选择合适的源代码:根据您的需求和技术能力,从众多已公布的源代码中选择适合的项目。 2. 环境搭建:安装所需的开发工具、编程语言和相关依赖库。 3. 数据准备:收集和整理适合训练和优化模型的数据。 4. 代码理解与修改:深入理解所选源代码的结构和逻辑,根据您的需求进行必要的修改和优化。 5. 训练模型:使用准备好的数据对模型进行训练。 6. 评估与优化:对训练好的模型进行评估,根据评估结果进行进一步的优化。 关于硬件设施,Jetson Orin Nano 是一款性能不错的嵌入式计算设备。它可以支持多种模型,例如常见的深度学习模型如卷积神经网络(CNN)、循环神经网络(RNN)等。但具体能使用哪些模型,还取决于模型的规模、计算需求以及您对性能和资源的要求。
2024-12-20
AI+交易:来定制专属于你的私人高级交易顾问吧!
以下是关于“AI+交易:来定制专属于你的私人高级交易顾问吧!”的相关内容: 原本是一名 AIGC 创作者,在接触交易后,希望将交易与 AIGC 相结合,打造私人高级交易顾问。学习交易知识后认识到,单纯迷信技术分析提高胜率实现长期稳定盈利对个人投资者不可行,心态关键。新人对交易理论不熟悉更致命,成熟交易员单一策略熟练运用能找进出点、良好心态能长期盈利,但不熟悉行情只能观望。借助 AI 分析行情,期望在不熟悉市场时找到合适进场点,提高资金使用效率,多种策略配合提高理论胜率(有统计数据显示几千名专业交易员一年里平均胜率 70)。 此外,还有以下 AI 与工作场景结合的案例: 1. 销售方面:包括话术总结优缺点、定制销售解决方案。 2. 客服方面:定制客服话术,有关键词库,如产品知识、使用方法等。 3. HR 方面:团队绩效管理,根据绩效数据输出考评和改进建议;面试工具,如使用 GPT4 技术的实时转录工具帮助求职者生成回答。 另外,在七大行业的商业化应用中: 1. 企业运营:包括日常办公文档撰写整理、营销对话机器人等。 2. 教育:协助评估学生学习情况、定制学习内容等。 3. 游戏/媒体:如定制化游戏、出海文案生成等。 4. 零售/电商:包括舆情监测分析、品牌营销内容撰写等。 5. 金融/保险:如个人金融理财顾问、识别欺诈活动风险等。
2024-12-17
私人助理领域,如今有没有成熟的产品
在私人助理领域,目前有一些相关产品,但成熟的产品相对较少。 AI Agent 应用大多集中在 2B 场景,面向个人消费者的产品少之又少。一方面是高度智能化的 Agent 能力需要打磨,概念落地还有较长一段距离;另一方面是 AI 和娱乐消费诉求的结合还几乎没有,其主要带来的是生产方式变革和效率变革。个人消费者方向,目前只看到“私人助理”场景。 Dots 是目前看到的最接近理想 AI Agent 形态的 C 端私人助理。它支持用户发送文本和图像、音频信息并理解内容,能够为用户制定计划、进行文件管理、推荐咖啡店,帮助用户访问互联网中的最新工具和服务。不过,该产品需要排队较久的 waitlist,官方也较少更新动态。其官方 twitter 为:https://twitter.com/newcomputer ,官网介绍:https://new.computer/about 。
2024-12-12
如何通过投喂文档做私人智能体
要通过投喂文档做私人智能体,可以参考以下步骤: 1. 了解智能体的基本概念: 智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。 具有强大的学习能力、灵活性和泛化能力。 核心在于有效控制和利用大型模型,提示词设计直接影响智能体的表现和输出结果。 2. 基于公开的大模型应用产品进行实践: 如 Chat GLM、Chat GPT、Kimi 等。 以 Chat GPT 为例: 点击“浏览 GPTs”按钮。 点击“Create”按钮创建自己的智能体。 使用自然语言对话或手工设置进行具体设置。 开始调试智能体并发布。 以 Chat GLM 为例: 点击“创建智能体”按钮。 输入对智能体的描述,如有准备好的提示词模板可直接粘贴。 智能体配置可自动生成,默认勾选增强能力,可根据实际需求调整,也可上传本地文件作为知识原料形成知识库。 3. 创建知识库: 手动清洗数据,提高数据准确性。 在线知识库:点击创建知识库,创建一个如画小二课程的 FAQ 知识库。选择飞书文档、自定义,输入区分内容,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意合理拆分内容,如将课程章节按固定方式人工标注和处理,再选择创建知识库自定义清洗数据。 4. 发布应用:点击发布,确保在 Bot 商店中能够搜到,只有通过发布才能获取 API。 此外,还涉及多智能体协同的概念,以及个人和社区提示词分享等内容。由于最近盗版事件频发,获取在线课件需要扫群主二维码。
2024-10-26
私人知识库
以下是关于私人知识库的相关知识: 使用 GPT 打造个人知识库: 可先将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成新的 prompt 发送给 GPT API。 理解 embeddings: embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。 向量是数学中表示大小和方向的量,通常用一串数字表示,在计算机科学和数据科学中常用列表来表示。 计算向量之间距离常见的方式是欧几里得距离,即对应元素相减取平方和再开平方。 AI 时代的私人知识库: 私人知识库中的内容一般有两种:日常从互联网收集的优质信息和个人日常的思考以及分享。 基于私人知识库打造个人专属的 ChatGPT 常见有两种技术方案:训练专有大模型和利用 RAG(检索增强生成)技术。 训练专有大模型:可以使用个人知识库训练专有的大模型,但此方案并非当下主流,存在高成本、更新难度大等缺陷。高成本体现在需要大量计算资源和专业知识;更新难度大在于若要更新模型知识,需重新训练或微调模型,过程复杂耗时。
2024-10-22