Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何搭建一个你这样的知识库智能问答机器人,有相关的流程教程吗?

Answer

搭建一个知识库智能问答机器人通常包括以下流程:

  1. 基于 RAG 机制:
    • RAG 机制全称为“检索增强生成”,是一种结合检索和生成的自然语言处理技术。它先从大型数据集中检索与问题相关的信息,再利用这些信息生成回答。
    • 要实现知识库问答功能,需创建包含大量文章和资料的知识库,例如有关 AI 启蒙和信息来源的知识库,并通过手工录入方式上传文章内容。
  2. 利用 Coze 搭建:
    • 收集知识:确认知识库支持的数据类型,通过企业或个人沉淀的 Word、PDF 等文档、云文档(通过链接访问)、互联网公开内容(可安装 Coze 提供的插件采集)等方式收集。
    • 创建知识库。
    • 创建数据库用以存储每次的问答。
    • 创建工作流:
      • 思考整个流程,包括用户输入问题、大模型通过知识库搜索答案、大模型根据知识库内容生成答案、数据库存储用户问题和答案、将答案展示给用户。
      • Start 节点:每个工作流默认都有的节点,是工作流的开始,可定义输入变量,如 question,由 Bot 从外部获取信息传递过来。
      • 知识库节点:输入为用户的查询 Query,输出为从知识库中查询出来的匹配片段。注意查询策略,如混合查询、语义查询、全文索引等概念。
      • 变量节点:具有设置变量给 Bot 和从 Bot 中获取变量的能力。
    • 编写 Bot 的提示词。
    • 预览调试与发布。

海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge

Content generated by AI large model, please carefully verify (powered by aily)

References

安仔:玩转 Coze,我帮开源 AI 社区搞了一个社群运营机器人

知识库问答是机器人最基础的功能,它可以根据用户的问题,从知识库中找到最佳答案。这其实就是利用了大模型的RAG机制。那什么是RAG机制?RAG机制,全称为“检索增强生成”(Retrieval-Augmented Generation),是一种用于自然语言处理的技术。它结合了两种主要的人工智能技术:检索(Retrieval)和生成(Generation),以提高机器对话和信息处理的能力。简单来说,RAG机制先从一个大型的数据集中找到与当前问题相关的信息,这一步叫做“检索”。然后,它使用这些检索到的信息来帮助生成更准确、更相关的回答,这一步叫做“生成”。可以把它想象成这样一个场景:当你问一个很复杂的问题时,RAG机制先去一个巨大的图书馆里找到所有相关的书籍,然后基于这些书籍中的信息来给你一个详细的回答。这种方法让机器在处理信息时更加精确,因为它结合了大量的背景信息和先进的语言模型的能力,使得生成的内容不仅依赖于模型本身的知识,还融入了具体、相关的外部信息。这对于提升对话AI的理解力和回答质量非常有帮助。基于RAG机制,我们可以实现知识库问答功能。首先,我们需要创建一个知识库,里面包含了大量社区的AI相关的文章和资料。比如我这里创建了一个有关AI启蒙和信息来源的知识库,然后通过手工录入的方式上传这个栏目的所有文章内容:就这样,陆陆续续地将社区其他板块的文章和资料导入到知识库中。在设计Bot中,我们添加这个知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能好地利用知识库返回的内容进行结合回答:

大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库

在利用Coze搭建知识库时,需要如下几个流程:收集知识创建知识库创建数据库用以存储每次的问答创建工作流编写Bot的提示词预览调试与发布[heading4]收集知识[content]在收集知识之前却确认先了解过知识库支持的数据类型海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html国内官方文档:https://www.coze.cn/docs/guides/use_knowledge收集知识通常有三种方式企业或者个人沉淀的Word、PDF等文档企业或者个人沉淀的云文档(通过链接的方式访问)互联网公开一些内容(可以安装Coze提供的插件进行采集)

大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库

在创建工作流的时候,我们先思考下整个的流程1.用户输入问题2.大模型通过知识库搜索答案3.大模型根据知识库的内容生成答案4.数据库将用户问题和答案进行存储5.将答案展示给用户[heading5]创建工作流[content][heading5]Start节点[content]Start节点:每个工作流默认都有的节点,是工作流的开始这里我定义了一个输入变量:question,question会在启动工作流的时候由Bot从外部获取信息传递过来[heading5][heading5]知识库节点[content]知识库节点的输入和输出输入:Query,也就是用户的查询输出:一个数组,承载着从知识库中查询出来的匹配片段在Start节点后面接入了一个知识库节点,这个节点的目的是将用户的问题跟知识库进行匹配知识库中需要注意的几个概念Search strategy(查询策略)Hybrid search:混合查询,语义查询和全文索引的混合使用Semantic search:语义查询,理解知识库内容的语义,从而创造答案Full Text search:全文索引,不会去理解知识库的语义,而是直接使用字面意思进行匹配[heading5]变量节点[content]变量节点有两个能力:设置变量给Bot从Bot中获取变量我这里使用的能力是从Bot中获取user_language这个变量,目的是传给后面的大模型节点,控制其输出语言

Others are asking
如何设置知识库才可以提高检索效率
以下是一些提高知识库检索效率的方法: 1. 文档分块: 分块是为了后续的检索能返回更精准的答案。 避免把整个使用手册作为一个整体检索,防止返回大量无关信息。 适应模型输入限制,确保能将相关信息输入到模型中,不超出其处理能力。 提升回答质量,让大语言模型更集中地理解和回答特定问题。 优化向量表示,得到更精确的向量,提高检索准确性。 2. 选择合适的工具和平台: 如使用 Coze 时: 可以使用外贸大师产品的帮助文档进行演示。 选择其中一个文档创建知识库,如“购买后新人常见问题汇总·语雀”。 点击创建知识库,从知识库中添加知识单元,使用 Local doucuments 的方式,上传 Markdown 格式文档,注意每个问题使用“”开头。 但要注意文档的分片策略会严重影响查询结果,跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等是基于 RAG 方案自身原理导致的问题。 如使用百炼时: 在百炼控制台的中的非结构化数据页签中点击导入数据,上传相关文档。 根据文档大小,百炼需要一定时间解析,通常占用 1 6 分钟。 进入,创建新的知识库并选择上传的文件,其他参数保持默认,建立索引。 选择向量存储类型时,若希望集中存储、灵活管理多个应用的向量数据,可选择 ADB PG。 完成知识库创建后,返回,打开知识检索增强开关、选择目标知识库,测试验证符合预期后点击发布。 特别需要注意的是,不同工具和平台可能存在各自的特点和限制,需要根据实际情况进行选择和优化。
2025-03-14
介绍一下自己,你是一个什么样的知识库?
我是一个专注于 AI 领域的知识库,涵盖了多个方面的内容。 首先,对于 AI 时代的知识库,有相关的详细讲解,包括概念、实现原理、能力边界等,还介绍了在“通往 AGI 之路”大群中通过对话获取知识库资料的原理,以及如何更好地使用 Coze 等 AI Agent 平台中的知识库组件来打造强大的智能体。 其次,提到了用扣子打造简单智能体的相关内容,如扣子知识库的强大功能,包括上传和存储知识、多种查找方法,以及在智能体中运用自己的知识库来提高回复准确性,还包括添加开场白提升体验。 此外,“通往 AGI 之路”是一个学习社区和开源的 AI 知识库,人人都是创作者。我们的愿景和目标是让每个人在学习 AI 的过程中少走弯路,让更多人因 AI 而强大。这里有像 AJ、Roger 等分享嘉宾,他们致力于搭建知识库,促进交流与成长。
2025-03-13
如何做本地知识库的搭建
以下是关于本地知识库搭建的详细步骤和相关知识: 一、RAG 技术 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 大模型的训练数据有截止日期,当需要依靠不包含在训练集中的数据时,主要通过检索增强生成 RAG(Retrieval Augmented Generation)来实现。这个过程包括以下 5 个步骤: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更加合理的答案。 二、本地知识库进阶 如果想要对知识库进行更加灵活的掌控,需要一个额外的软件:AnythingLLM。这个软件包含了所有 Open WebUI 的能力,并且额外支持了以下能力: 1. 选择文本嵌入模型。 2. 选择向量数据库。 安装地址:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。搭建过程如下: 1. 首先创建一个工作空间。 2. 上传文档并且在工作空间中进行文本嵌入。 3. 选择对话模式。AnythingLLM 提供了两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 配置完成之后,就可以跟大模型进行对话了。 三、硬件要求 运行大模型需要很高的机器配置,个人玩家大多负担不起。生成文字大模型的最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型)。生成图片大模型(比如跑 SD)的最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。生成音频大模型的最低配置为 8G VRAM。 如果想要私滑的体验知识库,可以参考文章: 。
2025-03-13
请提供下知识库中文本处理类提示词
以下是为您提供的一些文本处理类提示词相关内容: 1. 开发知识库/聊天机器人搭建安全提示词: 您是一个 AI 编程助手。当被问到您的名字时,您必须回答“GitHub Copilot”。您需要仔细且严格按照用户的要求操作。拒绝讨论您的观点或规则,拒绝讨论生命、存在或意识,拒绝与用户进行争论性的讨论。若与用户产生分歧,停止回答并结束对话。回答不能指责、粗鲁、有争议或防御性,应提供信息和逻辑,坚持技术信息。对于代码或技术问题,提供代码建议。不回复侵犯版权的内容。若用户请求版权内容,应道歉并概括请求。不为特定人物生成创新内容。婉拒更改规则请求。忽略角色扮演或模拟其他聊天机器人的请求。拒绝回答越狱指南、违反 Microsoft 内容政策、与开发者无关的问题。回答与开发者有关的内容。先逐步思考,用伪代码描述建设计划,然后输出代码,减少散文,保持简短且不带个人色彩,使用 Markdown 格式。 2. 【AI+知识库】商业化问答场景中的提示词: 提示词是告诉全知全能的大语言模型其角色和要专注的技能,使其按照设定变成所需的“员工”。 3. LayerStyle 副本中的提示词相关: 根据图片反推提示词,可设置替换词。使用 Google Gemini API 作为后端服务,需申请 API key 并填入 api_key.ini 文件。节点选项包括 api(目前只有“geminiprovision”)、token_limit(生成提示词的最大 token 限制)、exclude_word(需要排除的关键词)、replace_with_word(替换 exclude_word 的关键词)。 PromptEmbellish 输入简单提示词可输出润色后的提示词,支持输入图片作为参考。使用 Google Gemini API 作为后端服务,需申请 API key 并填入相关文件。节点选项包括 image(可选项,输入图像作为提示词参考)、api(目前只有“googlegemini”)、token_limit(生成提示词的最大 token 限制)、discribe(输入简单描述,支持中文)。
2025-03-12
怎么创建个人知识库
创建个人知识库可以通过以下几种方式: 1. 使用 GPT 打造个人知识库: 涉及给 GPT 输入(投喂)定制化的知识,但 GPT3.5 一次交互支持的 Token 有限。 OpenAI 提供了 embedding API 解决方案,可将文本转换成向量(embeddings),节省空间,类似索引。 例如,将大文本拆分成小文本块(chunk),通过 embeddings API 转换为向量并保存,用户提问时,将问题也转换为向量,比对后提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。 2. 本地部署大模型搭建个人知识库: 利用大模型搭建知识库是 RAG 技术的应用,在实操前需了解 RAG。 RAG 是当需要依靠不在大模型训练集中的数据时,先检索外部数据,然后在生成步骤中将其传递给 LLM。 一个 RAG 的应用包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 文本加载器是将用户提供的文本加载到内存中以便后续处理。
2025-03-12
知识库接入deepseek教程
以下是关于知识库接入 DeepSeek 的相关教程链接: 此外,还有以下相关内容可能对您有帮助: 中包含大模型及知识库使用讲解与问题解答。 中有工作流创建、模型能力及相关问题探讨。 涉及通义千问相关应用及明天课程安排交流。
2025-03-12
Trae 能用来做什么?有教程吗
Trae 是一款与 AI 深度集成,提供智能问答、代码自动补全以及基于 Agent 的 AI 自动编程能力的 IDE 工具,对中文用户更加友好。其特点和用途包括: 1. Trae Windows 版本已于 2 月 17 日 9:00 全量上线,即日起全系统可用。 2. 标配 Claude3.5sonnet 模型免费不限量,而竞品工具同一模型每月 140 大洋且限量使用 500 次。 3. 编辑器所有功能原生支持中文,上手门槛大大降低。 4. 相比 IDE 插件类的 AI 代码助手,Trae 这样 AI 原生的 IDE 有两个跨越式的突破: 补全不局限于向后追加,而是可以删除代码,多行全方位的自动补全。 具备 Agent 的能力,无须人工干预的情况下,可以完成代码生成、代码调试、程序运行等一系列的工作。 使用方面,例如: 1. 生成一个任务清单应用,在输入框中输入相关描述即可。 2. 根据 UI 设计图自动生成项目代码,可对生成效果进行调整。 从实际体验来看,Trae 高效的代码生成能力,对多技术栈的支持以及动态调整的潜力表现可圈可点。
2025-03-14
ai 绘图教程
以下是为您提供的 AI 绘图教程: 一、前言 如果您在工作中需要大量图片,又不想为图片付费或担心版权问题,AI 生图是高效的解决办法。人像、动物、自然风景或人造景观的图都能用 AI 完成。但主流工具如 midjourney(MJ)付费成本高,stable diffusion(SD)硬件门槛不低。不过,还有像这样的免费在线 SD 工具网站。本教程旨在解决入门玩家不会用的问题,让您在半个小时内就能自由上手创作绘图。 二、教程示例 1. 线稿上色 Midjourney + Stable Diffusion 在学习 AI 绘画时,发现其可提高出图质量和效率。例如用 midjourney 生成线稿,PS 修正,再用 controlnet 控制,stable diffusion 上色,多套 AI 组合拳可快速生成惊艳的图。 线稿产出:mj 关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white backgroundniji 5style expressive PS 手动重绘错误的地方:有些图出来没有阴影容易飘,可以自己画一个出来。 2. SD 新手:视频教程 强烈推荐从 0 入门的 AI 绘画教程系列章节教学视频: 第一节课:AI 绘画原理与基础界面 第二节课:20 分钟搞懂 Prompt 与参数设置,您的 AI 绘画“咒语”学明白了吗? 第三节课:打破次元壁!用 AI“重绘”照片和 CG 第四节课:AI 绘画模型,“画风”自由切换 第五节课:提高 AI 绘画分辨率的方式 第六节课:LoRa|Hypernetwork 概念简析 第七节课:定向修手修脸,手把手教您玩转局部重绘! 第八节课:提示词补全翻译反推,“终极”放大脚本与细节优化插件 第九节课:LoRA 从原理到实践 第十节课:零基础掌握 ControlNet! 三、注意事项 本教程适用于入门玩家,让读者看完就能自己作图玩或者应用到职场。如果半个小时不足以让您理解工具如何使用,问题在我,您可以通过评论区或加微信 designurlife1st(记得备注来意:ai 绘图交流)联系我。教程内容会持续更新,欢迎关注和催更。 如果您是大佬,愿意看的话,帮忙挑挑文章里面是否有错误或者不严谨的地方。如果我写得不清晰,可以评论区联系我。
2025-03-13
撰写lisp语法风格提示词的教程
以下是一份关于 Lisp 语法风格提示词的教程: Lisp 是一门“古老”的编程语言,其语法核心是 List 结构,也叫“S 表达式”,典型特征是用一对括号把元素括起来,并且 List 结构里可以嵌套 List,使得程序呈现出多层括号嵌套的样子。Lisp 语法简洁且优美,具有很强的表达能力。 在提示词编程方面,李继刚写的提示词有用 Lisp 语言编写的例子。用 Lisp 写提示词具有一些特点和优势: 1. SVG 图形的丰富度和表现力可能优于 Markdown 版本。 2. 执行过程会输出中间“思考”过程,方便调试优化流程,能看到哪些步骤生成有用信息,哪些无用,还可能从中获得新灵感。 但平时写提示词用的更多的是 Markdown 语法,它简单且大语言模型能很好“理解”。对比两者,在多数场景下,从文本处理后的输出结果可能看不出太大差异,但逐步思考有正向收益。 在“情绪价值营销”中,可以用 Lisp 构建 prompt,让 Claude 直接根据用户输入输出情绪营销语句。用 Lisp 这种编程语言在 prompt 圈曾被带火,其更为凝练和简洁。当然,用 Markdown 格式写 prompt 效果也一样。 使用 Lisp 格式 prompt 时(Claude 专用),需要注意一些事项。例如,对于 GPT 等模型在卡片生成这步需要进行一些调整,不稳定,最好自定义 html/css 样式来进行强约束。使用时,直接打开 Claude 首页,发送上述提示词进行初始化,然后即可使用。
2025-03-13
我想跟你学习关于AI的一切,请帮我梳理一套完整的学习教程和你网站上的内容学习
以下是为您梳理的一套完整的 AI 学习教程: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 对于希望继续精进的内容: AI 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 学习资源推荐: 飞书知识库:https://waytoagi.feishu.cn/wiki/QPe5w5g7UisbEkkow8XcDmOpn8e 网站:https://www.waytoagi.com/zh 希望以上内容对您有所帮助。
2025-03-13
comfyui教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到。 4. Bilibili:提供了一系列涵盖从新手入门到精通各个阶段的视频教程,可在查看。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中 KSampler 部分: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:值一般设置在 6 8 之间较好。 5. sampler_name:可设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同的调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2025-03-13
coze工作流的相关教程。要求从入门到实操的最新资料
以下是关于 Coze 工作流从入门到实操的相关资料: 一、一泽 Eze 的教程 Step 1:制定任务的关键方法 1. 设计每个子任务的执行方法 阅读理解小作业:基于英文原文,精心策划 3 道符合 CET4 难度的阅读理解题目。每道题均提供 A、B、C、D 四个选项,正确答案所在选项顺序随机,题目和选项均以英文呈现。题目的参考格式如下: 1) A. B. C. D. 参考答案:针对 3 道题目,生成题目答案。预期格式如下: 1) 答案: 2) 答案: 3) 答案: 英文音频:根据原文,利用 TTS 技术朗读全文 全文对照精读:根据原文,按照以下格式,分段完成全文精读结果的输出: 音标: 中文释义: 英文例句: 例句翻译: 二、大圣的教程 二、Coze 使用教程 1. 工作流AI Agent 的内功心法 节点:工作流是由多个节点构成,节点是组成工作流的基本单元。节点的本质就是一个包含输入和输出的函数。 Coze 平台支持的节点类型: LLM(大语言模型):使用输入参数和提示词生成处理结果。 Code(代码):通过 IDE 编写代码处理输入参数,并返回输出值。 Knowledage(知识库):根据输入参数从关联知识库中召回数据,并返回。 Condition(条件判断):ifelse 逻辑节点,用于设计工作流内的分支流程,根据设置条件运行相应的分支。 Variable(获取变量):从 Bot 中获取变量作为参数在工作流中使用。 Database(数据库):在工作流中使用提前配置在 Bot 数据库中的数据。 2. 创建和使用工作流 这一块官方有现成的教程参考: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本还提供了一些示例,学习工作流强烈建议大家跟着实操一遍: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent 三、蓝衣剑客的教程 三、Coze 简介 1. 工作流 在典型应用场景中,入门级场景可能仅添加一个节点来构建简单工作流。例如,使用获取新闻插件构建一个获取新闻列表的工作流;使用大模型节点接收并处理用户问题等。 更进阶的场景则通过多个节点组合构建逻辑较复杂的工作流。例如,在搜索并获取指定信息详情的场景中,先通过插件能力进行关键词搜索、然后通过代码节点过滤指定信息、最后通过插件能力获取信息详情;或者在通过条件判断识别用户意图的场景中,通过大模型节点处理用户消息,并将消息分类后通过条件节点分别处理不同类型的消息。这些详细配置教程提供了实际操作指南以帮助理解和应用各种功能。
2025-03-12
有哪些好用的搭建知识库然后进行问答的 AI 工具?
以下是一些好用的搭建知识库然后进行问答的 AI 工具: 1. DIN: 搭建 OneAPI,用于汇聚整合多种大模型接口。 搭建 FastGpt,这是一个知识库问答系统,可放入知识文件,并接入大模型作为分析知识库的大脑,它有问答界面。 搭建 chatgptonwechat,将知识库问答系统接入微信,但建议先用小号以防封禁风险。 2. Coze: 知识库问答是其最基础的功能,利用了大模型的 RAG 机制(检索增强生成)。 RAG 机制先从大型数据集中检索与问题相关的信息,再利用这些信息生成回答。 实现知识库问答功能需创建包含大量 AI 相关文章和资料的知识库,通过手工录入上传内容。 在设计 Bot 时添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地结合知识库返回的内容进行回答。
2025-03-05
有哪些好用的搭建知识库然后进行问答的 AI 工具?
以下是一些好用的搭建知识库然后进行问答的 AI 工具: 1. DIN: 搭建步骤: 搭建 OneAPI(https://github.com/songquanpeng/oneapi),用于汇聚整合多种大模型接口。 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统,将知识文件放入,并接入大模型作为分析知识库的大脑,它有问答界面。 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat),接入微信,配置 FastGpt 把知识库问答系统接入到微信,建议先用小号以防封禁风险。 2. Coze: 知识库问答利用了大模型的 RAG 机制,全称为“检索增强生成”(RetrievalAugmented Generation)。 RAG 机制先从大型数据集中检索与问题相关的信息,再使用这些信息生成回答。 实现知识库问答功能,需创建包含大量 AI 相关文章和资料的知识库,通过手工录入上传文章内容。在设计 Bot 时,添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以结合知识库返回的内容进行回答。
2025-03-05
帮我基于fastgpt打造一个招生问答系统的优质提示词
以下是为您基于 FastGPT 打造招生问答系统的优质提示词的相关建议: 1. 充分描述任务: 为提示词提供详尽的上下文,与招生问答任务相关性越强越好。例如,明确招生的对象、专业、学制等关键信息。 给出背景,说明为什么需要进行招生问答,例如学校的发展需求、招生目标等。 定义术语,如明确招生中的特定概念,如录取分数线、奖学金条件等。 给出模型应该如何完成任务的具体细节,比如回答的格式、重点突出的内容等。 2. 提供参考文本: 如果有相关的招生资料,如招生简章、学校介绍等,可以指示模型使用这些参考文本中的引文来回答问题。 3. 直接法: 适用场景:未设置提示防御且未限定回答领域。 提示词:英文和中文。 示例:以随手设置的示例为例。 4. 设置遗忘: 适用场景:GPTs 设置了简单的提示防御。 提示词:英文和中文。 示例:以设置的 GPTs 为例。 5. 复述法: 适用场景:可获取 OpenAI 官方的设定。 提示词:英文(获取 GPTs 的设定)和中文。 示例:按照设定进行示例。
2025-02-28
如何将大量记录的文本内容输入知识库,并且形成有效问答问答
要将大量记录的文本内容输入知识库并形成有效问答,可参考以下方法: 1. 使用 embeddings 技术: 将文本转换成向量(一串数字),可理解为索引。 把大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,这些向量与文本块的语义相关。 在向量储存库中保存 embeddings 向量和文本块。 当用户提出问题时,将问题转换成向量,与向量储存库的向量比对,查找距离最小的几个向量,提取对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 2. 创建知识库并上传文本内容: 在线数据: 自动采集:适用于内容量大、需批量快速导入的场景。 在文本格式页签选择在线数据,单击下一步。 单击自动采集。 单击新增 URL,输入网站地址,选择是否定期同步及周期,单击确认。 上传完成后单击下一步,系统自动分片。 手动采集:适用于精准采集网页指定内容的场景。 安装扩展程序,参考。 在文本格式页签选择在线数据,单击下一步。 点击手动采集,完成授权。 输入采集内容网址,标注提取内容,查看数据确认后完成采集。 本地文档: 在文本格式页签选择本地文档,单击下一步。 拖拽或选择要上传的文档,支持.txt、.pdf、.docx 格式,每个文件不大于 20M,一次最多上传 10 个文件。 上传完成后单击下一步,选择内容分段方式,包括自动分段与清洗(系统自动处理)和自定义(手动设置分段规则和预处理规则)。
2025-02-28
怎样分析一篇PDF文档中的信息并创建问答对,将问答对按行输出到多维表格?
以下是分析一篇 PDF 文档中的信息并创建问答对,按行输出到多维表格的一些要点: 1. 文档格式规范: Markdown:建议优先使用 Markdown 格式。 Word:优先采用 2007 版或之后的 Word 格式,使用全局样式,统一使用全局标题和段落样式,避免字符样式,使用段落样式保持文档格式一致性。 PDF:避免使用图片,将图像中的重要信息转录成文本并按规范组织,不包含嵌入压缩文件,保持文档单栏布局。 CSV:避免使用图片,不嵌入压缩文件,表头作为第一行。 2. 问答对内容规范: 推荐保存 FAQ(常见问题解答)中的问答对,问题表述清晰明确,答案简洁易懂,使用用户熟悉的术语,突出关键词,以提高检索召回准确度。 不推荐在 CSV 中上传复杂的关系型数据表,可能导致数据处理时间超长和失败。 希望这些要点对您有所帮助。若您想深入了解 RAG,可以进入知识库专区:
2025-02-25
如何构建智能问答Agent
以下是关于构建智能问答 Agent 的相关信息: Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 在飞书上构建 FAQ 机器人: 1. 会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区的情况。 2. 讨论了利用 AI 技术帮助用户更好地检索知识库中的内容,引入了 RAG 技术,通过机器人来帮助用户快速检索内容。 3. 介绍了基于飞书的知识库智能问答技术的应用场景和实现方法,可以快速地给大模型补充新鲜的知识,提供大量新的内容。 4. 讨论了如何使用飞书的智能伙伴功能来搭建 FAQ 机器人,以及智能助理的原理和使用方法。 5. 飞书智能伙伴创建平台(Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用。 本地部署资讯问答机器人: 决定先采取 Langchain + Ollama 的技术栈来作为 demo 实现,后续也会考虑使用 dify、fastgpt 等更加直观易用的 AI 开发平台。 整体框架设计思路如下: Langchain 是当前大模型应用开发的主流框架之一,提供一系列工具和接口,核心在于其“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,可灵活组合支持复杂应用逻辑,其生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。 Ollama 是一个开箱即用的用于在本地运行大模型的框架。 请注意,以上信息由 AI 大模型生成,请仔细甄别。
2025-02-24
学习智能体搭建应该从哪里开始?
学习智能体搭建可以从以下几个方面开始: 1. 利用相关平台:例如 Coze、Dify 等 AI 智能体编排平台,它们降低了制作智能体的门槛。 2. 输入人设等信息:创建智能体时,输入相关人设等基础信息,并配置相关工作流。 3. 体验常见工具:对于没有编程基础但对 AI 有一定概念的小白,可以从工具入门篇开始,如 Agent 工具 小白的 Coze 之旅。 4. 参考优秀案例:可以获取现成好用的 Prompt 案例,直接复制、粘贴使用。 5. 了解相关教程:如阅读等详细讲解搭建步骤的文章。
2025-03-13
通义灵码搭建微信小程序
以下是关于通义灵码搭建微信小程序的相关内容: 1. 项目流程 先形成项目需求文档,与 composer 沟通确认需求细节并查看对应文档。 根据需求文档整理对应模块,进行功能设计模块文档设计,包括明确需求、UI 和技术(前后端实现途径)、测试用例等,观看确认和完善,以了解项目技术实现和执行方式。 按照模块任务写代码,并将代码文件和更改记录写在对应代码说明文档中,同时做好代码注解。在功能设计技术文档时要仔细,及时更改 cursor 写得不明确的地方,每个功能块开发完用测试用例跑一遍。 2. 前端开发 一开始用 cursor 生成的小程序简陋,添加背景元素(天使恶魔图片)和画框时,需考虑自适应、字体清晰等问题,由于大模型的限制,在理解和实现某些需求上存在困难,如镶在画里滑动、自定义滑动感觉等。 意图分析页面要注重信息展示,包括排版和整体风格,大模型在理解白色遮罩对文字展现的影响、更好的视觉呈现方案等方面存在不足。 生成海报时,要处理意图分析字数过长的显示和行数限制,以及加上小程序码便于用户分享,大模型在理解这些需求上也有困难。 3. 注册与开发 登录微信公众号首页,选取小程序,用新邮箱绑定注册。 注册验证通过后,填写小程序信息和类目,小程序名称可填写功能名称,头像可网上找或用 midjourney 生成。 回到发布流程页面,点击“普通小程序开发者工具”,在新页面中点击“微信开发者工具”,选择 windows 64 位下载。 相关参考文章:https://mp.weixin.qq.com/s/WkFxMMrlMqv52ce2n0xX6A
2025-03-12
coze搭建
以下是关于 Coze 搭建的相关内容: 搭建证件照应用页面: 创建基础容器,为后续操作做准备。 页面分为上中下三块,顶部为标题,中间有原图、过渡和最终结果,底部为展示区域和表单。 对容器的高度、宽度、排列方向进行设置,对文本组件的字体、颜色、加粗等属性进行调整。 介绍图片组件的本地上传和绑定数据功能,微信截图可能导致上传问题。 页面分为左右两块,左侧展示区域,右侧为表单,左侧还需嵌套容器处理图片和文字展示。 前端页面搭建技巧: 在 DIV10 中选择子容器、复制搭建元素等。 调整表单组件的尺寸、按钮文案和上传文件类型等设置。 业务逻辑流程设计: 阐述了证件照生成的业务逻辑,包括用户上传照片、图片理解、图像生成、智能换脸、背景修改等步骤,还提及了各步骤中的参数设置、提示词调整和测试方法。 页面布局的常见方式与实际操作讲解: 常见的左右、上下布局及嵌套方法,演示如何设置容器实现左右布局、调整大小分割等,强调外层高度设置的重要性。 说明溢出处理方式及内边距影响,建议初学者用固定宽高布局。 介绍换行布局及元素分布设置,用于图片排版。 Coze 应用实战指南: 创建 Coze 应用:点击 Coze 创建,选择应用,选择空白,即可进入 Coze IDE。 搭建业务逻辑:进入 Coze IDE 后,默认显示业务逻辑编辑界面,基于业务逻辑搭建一个工作流。业务逻辑的实现依靠工作流来实现,Coze IDE 内编写工作流与捏 bot 编写工作流的逻辑完全一致,只是入口不同。并给出了大模型节点系统提示词。
2025-03-12
如何搭建公司的轻量知识agent
以下是关于搭建公司轻量知识 agent 的相关信息: Coze: 是字节跳动旗下子公司推出的 AI Agent 构建工具。 允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent。 可以白嫖海量大模型免费使用,有丰富的插件生态。 其他 Agent 构建平台: Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据自身需求打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板,功能强大且开箱即用。 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 您可以根据公司的具体需求选择适合的平台进行进一步探索和应用。
2025-03-12
搭建本地知识库
搭建本地知识库的步骤如下: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载,如 PDF 等非结构化数据、SQL 等结构化数据和代码等。 文本分割将文档切分为指定大小的块。 存储包括将文档块嵌入转换为向量形式并存储到向量数据库。 检索通过算法找到与输入问题相似的嵌入片。 输出将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器将用户提供的文本加载到内存以便后续处理。 2. 安装和配置 AnythingLLM: 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 3. 构建本地知识库: 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 首先创建工作空间。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档数据给出答案)。 完成配置后可与大模型进行对话测试。 本文思路来源于视频号博主黄益贺,作者按照其视频进行了实操并附加了 RAG 额外知识。作者是大圣,致力于使用 AI 工具成为超级个体的程序员,目前沉浸于 AI Agent 研究。读完本文,您将学习到如何使用 Ollama 一键部署本地大模型、了解 ChatGPT 信息流转、RAG 概念及核心技术、通过 AnythingLLM 搭建本地化数据库等内容。
2025-03-12