Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

本地怎么构建知识库

Answer

以下是关于本地构建知识库的详细步骤和相关知识:

一、硬件配置要求

运行大模型需要较高的机器配置,个人玩家可能负担不起。

生成文字大模型:

  • 最低配置:8G RAM + 4G VRAM
  • 建议配置:16G RAM + 8G VRAM
  • 理想配置:32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)

生成图片大模型(比如跑 SD):

  • 最低配置:16G RAM + 4G VRAM
  • 建议配置:32G RAM + 12G VRAM

生成音频大模型:

  • 最低配置:8G VRAM
  • 建议配置:24G VRAM

二、RAG 技术

利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。

RAG 是指检索增强生成(Retrieval Augmented Generation),当需要依靠不包含在大模型训练集中的数据时,通过以下 5 个过程实现:

  1. 文档加载(Document Loading):从多种不同来源加载文档。LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。
  2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块。
  3. 存储:涉及将切分好的文档块进行嵌入(Embedding)转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。
  4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。
  5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。

三、本地知识库搭建步骤

如果想要对知识库进行更加灵活的掌控,需要一个额外的软件:AnythingLLM。

  1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后,会进入到其配置页面,主要分为三步:

    • 第一步:选择大模型
    • 第二步:选择文本嵌入模型
    • 第三步:选择向量数据库
  2. 构建本地知识库

    • AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。
    • 首先创建一个工作空间。
    • 上传文档并且在工作空间中进行文本嵌入。
    • 选择对话模式。AnythingLLM 提供了两种对话模式:
      • Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。
      • Query 模式:大模型仅仅会依靠文档中的数据给出答案。
    • 测试对话:当上述配置完成之后,就可以跟大模型进行对话了。

四、写在最后

“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可以联系作者或者加作者的免费知识星球(备注 AGI 知识库)。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

如果想要对知识库进行更加灵活的掌控,我们需要一个额外的软件:AnythingLLM。这个软件包含了所有Open WebUI的能力,并且额外支持了以下能力选择文本嵌入模型选择向量数据库[heading2]AnythingLLM安装和配置[content]安装地址:https://useanything.com/download当我们安装完成之后,会进入到其配置页面,这里面主要分为三步1.第一步:选择大模型1.第二步:选择文本嵌入模型1.第三步:选择向量数据库[heading2]构建本地知识库[content]AnythingLLM中有一个Workspace的概念,我们可以创建自己独有的Workspace跟其他的项目数据进行隔离。1.首先创建一个工作空间1.上传文档并且在工作空间中进行文本嵌入1.选择对话模式AnythingLLM提供了两种对话模式:Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案Query模式:大模型仅仅会依靠文档中的数据给出答案1.测试对话当上述配置完成之后,我们就可以跟大模型进行对话了[heading1]六、写在最后[content]我非常推崇的一句话送给大家:看十遍不如实操一遍,实操十遍不如分享一遍如果你也对AI Agent技术感兴趣,可以联系我或者加我的免费知识星球(备注AGI知识库)

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM+4G VRAM建议配置:16G RAM+8G VRAM理想配置:32G RAM+24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM+4G VRAM建议配置:32G RAM+12G VRAM生成音频大模型最低配置:8G VRAM+建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。

Others are asking
如何搭建定制知识库
以下是关于如何搭建定制知识库的相关内容: 要搭建基于 GPT API 的定制化知识库,需要给 GPT 输入定制化的知识。但 GPT3.5(即当前免费版的 ChatGPT)一次交互支持的 Token 数量有限,约 4096 个,相当于 3000 个单词或 2300 个汉字,容量对于多数领域知识不够。为处理大量领域知识,OpenAI 提供了 embedding API 解决方案,可参考 OpenAI embedding documents。 embeddings 是浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。向量是用一串数字表示大小和方向的量,在计算机科学和数据科学中通常用列表表示。向量之间的距离是度量相似性的方法,常见的如欧几里得距离。在 OpenAI 词嵌入中,靠近的向量词语在语义上相似。 LlamaIndex 是更高一层 LangChain 的抽象,之前叫 GPT Index。之前的文章中的例子使用了 LlamaIndex 包,它简化了 LangChain 对文本分割和查询的接口,并提供了更丰富的 Data Connector。LlamaIndex 只针对 GPT Model 做 Index,而 LangChain 可对接多个 LLMs,可扩展性更强。参考 https://gptindex.readthedocs.io/en/latest/ 在基于大模型+知识库的 Code Review 实践中,对于自定义知识库飞书文档(自定义),没有格式要求,能看懂正确代码即可。可直接使用 LangChain 提供的文档加载类,对有权限的飞书文档进行获取,使用 CharacterTextSplitter/RecursiveCharacterTextSplitter 将文本分割成固定长度的块(chunks),方法有两个主要参数:chunk_size 控制每个块的长度,如设置为 1024,则每个块包含 1024 个字符;chunk_overlap 控制相邻两个块之间的重叠长度,如设置为 128,则每个块会与相邻块重叠 128 个字符。 因为大模型有足够多的数据,想让大模型按要求执行就需要用到“Prompt 提示词”。 最近各家大厂接连放大招,AI 技术和应用突飞猛进,GPT4 接口已支持最大 32K 输入,AI 的开发和使用门槛会越来越低。垂直领域知识库的搭建和优化可能更多是业务问题,而非技术问题。
2025-01-22
如何搭建私人知识库
搭建私人知识库可以参考以下方法: 1. 基于 GPT 搭建: 给 GPT 输入(投喂)定制化的知识,但 GPT3.5(即当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,容量对于绝大多数领域知识不够。 OpenAI 提供了 embedding API 解决方案,embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。 将大文本拆分成若干个小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,当用户提出问题时,将问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。 2. 本地部署大模型搭建: 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 RAG 的应用包括文档加载(从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)、Output(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案)。 文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理。
2025-01-22
我是一名数据产品经理,想转行ai产品经理,该从哪里入手。你的知识库里有哪些可以帮到我。最好把他们列举出来,具体一些最好有步骤
以下是为您整理的从数据产品经理转行 AI 产品经理的相关知识和建议: 一、AIPM 技能树 1. 理解产品核心技术 了解基本的机器学习算法原理,有助于做出更合理的产品决策。 2. 与技术团队有效沟通 掌握一定的算法知识,减少信息不对称带来的误解。 3. 评估技术可行性 在产品规划阶段,能更准确地判断某些功能的技术可行性。 4. 把握产品发展方向 了解算法前沿,更好地把握产品的未来发展方向。 5. 提升产品竞争力 发现产品的独特优势,提出创新的产品特性。 6. 数据分析能力 掌握相关知识,提升数据分析能力。 二、AI 提示词工程师岗位技能要求 1. 学历和专业背景 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 2. 熟悉 AI 工具 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 3. 项目经验 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 4. 技术理解 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 5. 数据分析与决策 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 6. 创新思维 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 7. 技术关注 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 8. 编程能力 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 三、AI 市场与 AI 产品经理分析 当前有两个场景: 1. 企业(包括传统企业和互联网企业)如何实现 AI 转型或用好 AI。 2. 产品经理如何转型 AI 产品经理。 希望以上内容对您有所帮助。
2025-01-21
适合小白的AI知识库
以下是适合小白的 AI 知识库内容: 通识篇: 现有常见 AI 工具小白扫盲: 文章链接: 视频链接:(1 小时 32 分开始) 适用人群:对 AI 都没太多概念的纯纯小白 简要说明:给与 AI 之间有道墙、还在墙外的人简单介绍当前各种 AI 工具、0 成本最快速感受当下 AI 工具的力量 AI 常见名词、缩写解释: 文章链接: 适用人群:对 AI 都没太多概念的纯纯小白 简要说明:给看不懂“黑话”和诸多缩写的小白,请善用这张表+多问 AI 对话工具(如豆包 or Kimi)结合食用 工具入门篇: (Prompt)现成好用的 Prompt: 文章链接: 适用人群:完全没有 AI 使用经验,只下载过 kimi、豆包、chatgpt 一类对话软件的小白 简要说明:想直接拿好用的提示词拿来用用的小伙伴,可以从这里开始,有很多可以直接复制、粘贴的优秀 prompt 案例,它们都有完整的结构。 (AI Agent)Agent 工具 小白的 Coze 之旅: 文章链接: 视频链接:Coze 之旅 1.0: 适用人群:完全没有编程基础,但对 AI 已有一点概念的小白 简要说明:为纯粹小白补的分享 AI AGENT 搭建平台,为什么是它、怎么 30 分钟就能开始用它 (AI Pic)现在主流的 AI 绘图工具网站: 文章链接: 适用人群:完全没接触过 AI 出图、只是听说过的小伙伴 简要说明:为纯粹的小白提供一个工具列表和扫盲 (AI Tools)数据工具 多维表格小白之旅: 文章链接: 视频链接: 适用人群:Excel 重度使用者、手动数据处理使用者、文件工作者 简要说明:用表格 + AI 进行信息整理、提效、打标签,满足 80%数据处理需求 (AI Code)编程工具 Cursor 的小白试用反馈: 文章链接: 适用人群:0 编程经验、觉得编程离我们很遥远的小白 简要说明:通过 AI 工具对编程祛魅,降低技术壁垒 (AI Music)音乐工具 Suno 的小白探索笔记: 文章链接: 适用人群:0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白 简要说明:AI 赋能音乐创作,无需乐理知识即可参与音乐制作
2025-01-20
从0到1搭建知识库
从 0 到 1 搭建知识库的方法如下: 【智能体】让 Coze 智能体机器人连上微信和微信群: 创建智能体: 知识库:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据。自动清洗数据会出现目前数据不准的情况,本节视频就尝试使用手动清洗数据,提高数据的准确性。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档,其中每个问题和答案以分割,暂时不要问为什么。选择飞书文档、自定义的自定义,输入,然后就将飞书的文档内容以区分开来,这里可以点击编辑修改和删除。点击添加 Bot,添加好可以在调试区测试效果。 本地文档:本地 word 文件,注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容格式依次类推细化下去。每个章节都按照这种固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能够搜到。 使用 Dify 构建知识库: 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 配置索引方式:Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 【知识库】FastGPT + OneAPI + COW 带有知识库的机器人: 创建知识库应用: 地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/ 进入后,点击应用并创建,选择 qwen 模型。 创建知识库。点击知识库 选择 qwen Embedding 1 点击确认创建。 上传文件,等待处理,最后文本状态是“已就绪”。 回到刚刚创建的应用,关联上创建的知识库。 点击两个发布。之前第一个叫做保存。 点击新建,创建 key。创建后保存同时将 API 根地址最后加上/v1 并保存下来。 安装并接入 cow: 回到宝塔,打开【终端】。 依次粘贴并回车:cd/root 。 git clone https://github.com/zhayujie/chatgptonwechat ,注意一定要粘贴完整。 出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续一行一行,依次输入:cd chatgptonwechat/ ,pip install r requirements.txt 。 等待执行完成,继续粘贴:pip install r requirements optional.txt 。 上边的都执行完成后,到“文件”菜单中去执行,点击文件 找到 root,进入 root 文件夹,找到 chatgpt on wechat 文件夹,并进入。
2025-01-19
个人知识库搭建
个人知识库搭建主要包括以下内容: 1. RAG 技术: 利用大模型能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载(从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据及代码)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块嵌入并转换为向量形式存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 2. GPT 相关: 搭建基于 GPT API 的定制化知识库涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。 Embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度,大距离表示低关联度。 3. 本地知识库进阶: 若要更灵活掌控知识库,可使用额外软件 AnythingLLM,其包含 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离,包括创建工作空间、上传文档并嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。 最后,“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可联系相关人员或加入免费知识星球(备注 AGI 知识库)。
2025-01-19
我能否借助开源社区力量构建高质量的 AI 数字人
您可以借助开源社区力量构建高质量的 AI 数字人。 构建数字人的躯壳有多种方式: 1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,代表是 Live2D Cubism。 2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高,代表是 UE、Unity、虚幻引擎 MetaHuman 等,但个人学习在电脑配置和学习难度上有一定门槛。 3. AIGC:省去建模流程直接生成数字人的展示图片,但存在算法生成的数字人很难保持 ID 一致性、帧与帧连贯性差等弊端。如果对人物模型真实度要求不高,可以使用,典型项目有 wav2lip、videoretalking 等。AIGC 还有直接生成 2D/3D 引擎模型的方向,但仍在探索中。 构建数字人的灵魂需要注意以下几个工程关键点: 1. AI Agent:要让数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建都是挑战。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:由于算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。 4. 多元跨模态:不仅仅是语音交互,还可以通过添加摄像头数据获取数据,再通过系列 CV 算法做图像解析等。 5. 拟人化场景:正常和人交流时不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。 如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此推荐借助开源社区的力量,现在开源社区已经有了像 dify、fastgpt 等等成熟的高质量 AI 编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了 dify 的框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由 Dify 控制,从而低门槛做出来自己高度定制化的数字人。具体的部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台,然后部署自己的模型。此外,数字人 GUI 工程中仍然保留了 LLM、ASR、TTS、Agent 等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加 Geek 的 Agent 实现也可以选择直接后端编码扩展实现。 使用 Dify 接口需要注意: 1. 必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。
2025-01-21
如何构建自己的AI职业
以下是关于构建自己的 AI 职业的一些建议: 1. 掌握 Prompt 工程:了解 Claude 的 5 层 Prompt 体系,将其应用到日常工作中,如市场研究、写作、数据分析等项目,以提升驾驭 AI 的能力。 2. 借助元学习:鉴于人工智能依赖的神经网络基础,通过元学习让 AI 更快地获得知识,与人类共同进步。 3. 实践打造微信 AI 机器人: 确定功能范围,如支持用户发送“关键字”获取“AI 相关资料链接”,回答 AI 相关知识,作为微信客服助手发布在微信公众号上。 准备实现所需的内容,包括编写 prompt 提示词,整理“关键字”与“AI 相关资料链接”的对应关系,创建知识库、工作流,准备微信公众号。
2025-01-12
人工智能构建第二大脑
以下是关于人工智能构建第二大脑的相关内容: 信息到智慧的进化是一个动态、渐进的过程,不仅需要外部信息输入,还需内部认知加工。随着人工智能技术发展,这一进程极大加速和优化。AI 能帮助更快收集处理信息、构建知识体系,甚至模拟人类决策过程。 信息、知识、智慧是人类认知和决策的三个层次,相互联系作用。在 AI 时代,有更多工具和方法加速从信息到智慧的进化,构建高效知识管理体系。 从信息到知识:Forte 强调“外部大脑”概念,利用数字工具和系统存储思考、想法和信息,释放认知负担,专注创意和高阶思考。可使用数字笔记工具记录,通过分类、标签或链接关联零散信息形成知识网络,对信息深加工提炼知识。 从知识到智慧:智慧形成不仅需知识积累,更要深刻理解和应用。Forte 提倡复盘和整合,复盘指定期回顾笔记和想法加深理解发现新联系,整合指将新理解和旧知识融合形成更全面深入见解。通过不断复盘和整合,将知识内化为理解和智慧,可能涉及跨领域知识融合、问题解决策略创新或对复杂系统深刻洞察。 AI 时代的信息到智慧进化:这一进化过程加速,AI 和机器学习技术可处理分析大量信息,识别模式联系,通过智能推荐等功能提高从信息到知识转化效率,辅助决策分析等应用模拟扩展人类智慧。结合《打造第二大脑》理论和 AI 技术发展,人类知识管理和智慧发展处于全新充满可能的时代,个人和组织通过高效信息管理可提升生产力创造力,形成独到智慧见解。在信息泛滥时代,引入 DIKW 模型和 CODE 信息管理法则可提供更深刻理解和实践指导。 此外,构建外脑的核心是思维方式与执行方法,虽核心不是工具,但好工具能提升效率。在智能时代,处理语言与数据效率指数级提升,影响软件工具使用、设计及对知识管理与传播的认知方式。
2025-01-11
如何构建一个AI数字人分身
构建一个 AI 数字人分身主要包括以下两个方面: 一、构建数字人躯壳 数字人的躯壳建模有多种方式: 1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢。能将喜欢的动漫人物变成数字人的躯壳。代表是 Live2D Cubism。 2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高。目前有很多公司都在做这个方向的创业,已经可以实现用户通过手机摄像头快速创建一个自己的虚拟人身体。如 NextHuman、Unity,虚幻引擎 MetaHuman 等。但个人学习在电脑配置和学习难度上有一定门槛。 3. AIGC:虽然省去了建模流程,直接生成数字人的展示图片,但弊端也明显,算法生成的数字人很难保持 ID 一致性,帧与帧的连贯性上会让人有虚假的感觉。如果项目对人物模型真实度要求没有那么高,可以使用这种方案。典型的项目有 wav2lip等。AIGC 还有一个方向是直接生成 2d/3d 引擎的模型,而不是直接生成数字人的最终展示部分,但该方向还在探索中。 建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。 二、构建数字人灵魂 有了数字人躯壳,还需要构建数字人的灵魂,让数字人具备各种智能,比如记得个人信息,充当个人助手;在某个领域具备更专业的知识;能处理复杂的任务等等。实现这些能力有以下几个工程关键点: 1. AI Agent:要想数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块,工作流模块、各种工具调用模块的构建都是挑战。 2. 驱动躯壳的实现:灵魂部分通过接口定义,躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等,视躯壳部分的实现而定。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对来说成熟一些,但都是闭源的,效果可以参考 Nvidia 的 Audio2Face。 3. 实时性:由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。 4. 多元跨模态:仅仅是语音交互的数字人是远远不够的,人有五感(听觉、视觉、嗅觉、触觉、味觉),听觉只是其中一种,其他的感官可以根据实际需求来做,比如视觉可以通过添加摄像头数据来获取数据,再通过系列 CV 算法做图像解析等。 5. 拟人化场景:正常和人交流的时候不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。
2025-01-03
构建一个路由分类器AI,在工作流里面有什么好的设计方案,怎么能保证分类器进行分类准确呢
构建路由分类器 AI 的工作流设计方案如下: 1. 内容编排:在第四步中,将指令分为扩写、缩写、总结以及其他四类,设定最终的分类条件。分类器匹配到特定分支后执行相应操作,这种编排方式可过滤并避免处理不明确的指令,确保智能体准确响应用户指令。 2. 编写具体指令:为每个指令编写具体内容,如缩写、扩写和总结三个分支,创建包含变量(即用户初始输入的原始文本)的简单指令,用花括号引用变量,系统将值赋给变量并传递给模型推理形成提示词。 3. 最终输出:对各分支结果进行输出,输出内容相对简洁。 4. 测试流程:首先准备用于扩写、缩写和总结三项测试的文本素材,然后逐一进行各项测试,包括扩写测试、缩写测试、总结测试和错误处理测试,以验证每个分支能否顺利执行。 要保证分类器分类准确,可以从以下方面入手: 1. 清晰明确地设定分类条件,避免模糊和歧义。 2. 对输入的指令进行充分的预处理和规范化,使其符合分类器的预期格式。 3. 不断优化和调整分类器的参数和算法,以适应不同类型和复杂程度的指令。 4. 进行大量的测试和验证,收集错误案例并进行分析改进。
2024-12-29
如何构建自己的知识库和数据集
构建自己的知识库和数据集可以参考以下几种方法: 使用 Dify 构建知识库的具体步骤: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式。对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式:Dify 提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式。根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 创建并使用知识库(上传表格数据): 1. API 方式: 获取在线 API 的 JSON 数据,将 JSON 数据上传至知识库。 在表格格式页签下,选择 API,然后单击下一步。 单击新增 API。 输入网址 URL 并选择数据的更新频率,然后单击下一步。 输入单元名称或使用自动添加的名称,然后单击下一步。 配置数据表信息后,单击下一步。 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 查看表结构和数据,确认无误后单击下一步。 完成上传后,单击确定。 2. 自定义方式: 在表格格式页面下,选择自定义,然后单击下一步。 输入单元名称。 在表结构区域添加字段,单击增加字段添加多个字段。 设置列名,并选择指定列字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 单击确定。 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 从零开始,用 GPT 打造个人知识库: 要搭建基于 GPT API 的定制化知识库,涉及到给 GPT 输入(投喂)定制化的知识。但 GPT3.5(当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字。这点容量对于绝大多数领域知识根本不够。为了使用 GPT 的语言能力来处理大量的领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。向量之间的距离是一种度量两个向量相似性的方法,最常见的是欧几里得距离。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上给了创建 embeddings 的示例,上面的命令访问 embeddings API 接口,将 input 语句,转化成下面这一串浮点数字。
2024-12-23