Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有没有一种小模型,语料只是一个知识库,超出范围的无法回答?

Answer

以下是关于您问题的回答:

在医疗领域,存在一种智能体,其在提示词中约定回答只能来自于知识库。例如生物医药小助手,为了避免在医疗这个严肃领域出现误导性的回答,其回答被限制在特定的知识库范围内,可能存在问题超出知识库范畴的情况,但尚未发现有医学上不严谨的回答现象。

同时,模型存在一定的局限性。在训练过程中,模型虽接触大量知识,但未完美记忆且不清楚知识边界,可能尝试回答深奥话题并虚构不正确内容,产生幻觉。例如要求模型描述虚构的牙刷产品时,会给出逼真但虚构的描述。在构建应用程序时,可使用一些技术避免这种情况,如要求模型先从文本中找相关引文,再用引文回答问题并追溯源文件,以减少幻觉的发生。

另外,“小模型”在特定任务上表现出色,如专门识别猫或狗的模型,但无法用于其他任务。而“大模型”像多功能基础平台,能处理多种任务,应用范围广泛且有更多通识知识,但大模型的知识来源于有限的训练数据,不能拥有无限知识,且知识库不会自动更新,在某些特定或专业领域知识可能不够全面。

Content generated by AI large model, please carefully verify (powered by aily)

References

十七问解读生成式人工智能

“小模型”确实有其优势,尤其是在特定任务上表现得非常出色。比如,如果你训练了一个专门识别猫🐱或狗🐶的模型,它在这个任务上可能非常精准。然而,这个模型就无法用于其他任务(因为用来训练模型的数据主要是由猫猫狗狗的照片组成的)。而“大模型”则不同,它像一个多功能的基础平台(有时也被称为“基座模型”)。大模型可以处理多种不同的任务,应用范围非常广泛,并且拥有更多的通识知识。这就是为什么尽管“小模型”在某些特定领域内表现优异,我们仍然需要“大模型”的原因:它们能够在更广泛的场景中提供支持和解决问题。[heading1]问题十一、大模型拥有无限知识吗?[content]大模型并不拥有无限知识。大模型的知识来源于它们在训练过程中接触到的数据,而这些数据是有限的。虽然大模型可以处理和生成大量的信息,但它们的知识来自于它们所训练的数据集,这些数据集虽然庞大,但仍然是有限的。因此,大模型只能回答它们在训练过程中见过或类似的问题。大模型在训练之后,其知识库不会自动更新。也就是说,它们无法实时获取最新的信息,除非重新训练或通过其他方式更新模型。大模型在某些特定或专业领域的知识可能不够全面,因为这些领域的数据在训练集中可能较少。[heading1]问题十二、大型语言模型的运作机制是什么?[content]大型语言模型的运作机制主要是通过大量的数据训练来学习语言的结构和模式,然后根据输入生成相应的文本。这些模型通过阅读大量的文本数据,学习到语言中的词汇、语法、句子结构以及上下文关系。当你给它一个输入时,它会根据这些学习到的知识生成一个连贯的回答。所以它永远在猜测下一个字符将要生成什么,类似于词语接龙游戏。

生物医药小助手的诞生之旅~如果你有公众号,你也应该做一个扣子智能体

这个智能体是由1个工作流+6个数据库实现的。工作流的设计比较简单,一个input,对接知识库,然后搭载豆包function call大模型,最后是一个output。6个数据库分别是我的公众号发表过的文章+执业药师教材(做第一个知识库的时候没经验,其实应该分开成两个数据库)、执业医师讲义、药监局新药审评报告、中国医药企业融资动态、药物对外授权(BD)动态、全球药物销售额。工作流是非常简单的,相对有难度的是收集知识库的资料并根据清洗结果进行手动二次校对(需要一定专业知识)。也许有人要问,医药知识我直接问大模型不好吗?大模型的语料来源庞杂,广度一定是比智能体好很多的,但是在医疗这个严肃领域,对回答准确性的要求非常高。为了避免出现误导性的回答,我在提示词中约定了回答只能来自于知识库。也许有问题超出知识库范畴的情况,但还没发现智能体回答是医学上不严谨的现象。广or精准,在医疗领域一定是精准优先的。[heading2]商业化场景[content]基本可以理解为,这个智能体能替代大部分的传统医药数据库商业化场景。医药企业研发立项:每个医药研发项目在立项之前,都要整理作用机制、目标治疗疾病的竞争格局、主流的技术路径是什么、同技术路径其他公司研发的产品在临床试验阶段看到的安全性风险和有效性分别是怎样的,这些问题智能体都可以回答科研机构临床转化评估:大学等科研机构有将基础的医药研究课题转化为药物的孵化机制,关注的主要是科学家研究方向的临床转化潜力,这些问题智能体都可以回答投资机构评估标的公司:主要关注国外对标技术的发展情况、融资情况、临床转化的可靠性,这些问题智能体都可以回答

2.提示工程关键原则

因此,接下来我们将讨论一些模型的局限性,因为我认为在开发具有大型语言模型的应用程序时保持这些局限性非常重要。如果在其训练过程中,模型被暴露于大量的知识之中,那么它并没有完美地记忆所见到的信息,因此它并不十分清楚它的知识边界。这意味着它可能会尝试回答有关深奥话题的问题,并且可能会虚构听起来很有道理但实际上不正确的东西。我们将这些捏造的想法称为幻觉。因此,我将向您展示一个例子,在这个例子中模型会产生幻觉。这是一个例子,展示了模型如何编造一个来自真实牙刷公司的虚构产品名称的描述。因此,这个提示是:“告诉我关于Boy的AeroGlide Ultra Slim智能牙刷的情况。”如果我们运行它,模型将为我们提供一个相当逼真的虚构产品的描述。这样做的危险在于,这听起来实际上是相当逼真的。因此,当您构建自己的应用程序时,请确保使用本笔记本中介绍的一些技术来避免出现这种情况。这是模型已知的弱点,我们正在积极努力应对。在您希望模型根据文本生成答案的情况下,另一种减少幻觉的策略是要求模型首先从文本中找到任何相关的引文,然后要求它使用那些引文来回答问题,并将答案追溯回源文件通常是非常有帮助的,可以减少这些幻觉的发生。大功告成!您已经完成提示指南,接下来您将进入下一个视频,了解迭代提示开发过程。

Others are asking
语料库训练相关文档
以下是为您提供的语料库训练相关文档: 中文数据集 |ID|标题|更新日期|数据集提供者|许可|说明|关键字|类别|论文地址|备注| ||||||||||| |6||2020 年|CLUE||CLUENER2020 数据集,是在清华大学开源的文本分类数据集 THUCTC 基础上,选出部分数据进行细粒度命名实体标注,原数据来源于 Sina News RSS。数据包含 10 个标签类别,训练集共有 10748 条语料,验证集共有 1343 条语料|细粒度;CULE|命名实体识别|\\|中文| |7||英文| |8||||EMNLP2015|命名实体识别||| |9||2005 年|MSR/PKU|||bakeoff2005|命名实体识别||| TTS 超全教程 音库制作和文本前端 音库制作 音频录制 音频的录制对合成语音的表现较为重要,较差的语音甚至会导致端到端声学模型无法正常收敛。用于训练的录音至少要保证录音环境和设备始终保持一致,无混响、背景噪音;原始录音不可截幅;如果希望合成出来的语音干净,则要删除含口水音、呼吸音、杂音、模糊等,但对于目前的端到端合成模型,有时会学习到在合适的位置合成呼吸音、口水音,反而会增加语音自然度。录音尽可能不要事先处理,语速的调节尚可,但调节音效等有时会造成奇怪的问题,甚至导致声学模型无法收敛。音频的录制可以参考录音公司的标准,购买专业麦克风,并保持录音环境安静即可。在音库录制过程中,可尽早提前尝试声学模型,比如音库录制 2 个小时语音后,就可尝试训练基线语音合成系统,以防止录音不符合最终的需求。 语料整理 检查文本和录制的语音是否一一对应,录制的音频本身一句话是否能量渐弱,参与训练的语音前后静音段要保持一致,能量要进行规范化。可使用预训练的语音活动检测(Voice Activity Detection,VAD)工具,或者直接根据语音起止的电平值确定前后静音段。可以使用一些开源的工具,比如统一所有语音的整体能量,这将有助于声学模型的收敛。当然,在声学模型模型训练时,首先就要对所有语料计算均值方差,进行统一的规范化,但是这里最好实现统一能量水平,防止一句话前后能量不一致。能量规整的示例代码如下。
2025-01-02
怎么投喂语料库给ai
以下是关于投喂语料库给 AI 的一些方法和步骤: 在音乐学习方面: 1. 步骤 3:把 Midi 导出到 MP3 虚拟演奏文件。可以直接导总谱,也可以分轨导出(适用于不同乐器组合)。由于制谱软件有很重的 midi 味,有时需要调整乐器音色。320kbit 码率是各大音乐平台的门槛,而向 Suno 导出的是 192k 的,后期如果想输出到 QQ 音乐之类,需要转个码。导出以后就可以喂给 AI 了。修改音色这一步不是必须,也有很多染色的软件可以用,比如用 Neutron4 从 Youtube 上面下载一些自己喜欢的乐器音色(比如雅马哈大钢琴),然后用宿主软件打开插件,导入这段音频,就可以实现渲染。 2. 步骤 4:丢给 AI 做二次创作。比较喜欢丢完整的小节给 AI,这样节奏的识别性更好,当然也可以在中间掐断,AI 的识别能力还是不错的。接下来就是细化去 roll 后面的部分,大家可以自由发挥。 在 OpenAI 方面: 如果作为输入的一部分提供,模型可以利用外部信息源。这可以帮助模型生成更明智和最新的响应。例如,如果用户询问有关特定电影的问题,将有关电影的高质量信息(例如演员、导演等)添加到模型的输入中可能会很有用。嵌入可用于实现高效的知识检索,以便在运行时将相关信息动态添加到模型输入中。文本嵌入是一个向量,可以衡量文本字符串之间的相关性。相似或相关的字符串将比不相关的字符串靠得更近。这一事实以及快速向量搜索算法的存在意味着嵌入可用于实现高效的知识检索。特别是,一个文本语料库可以被分割成块,每个块都可以被嵌入和存储。然后,给定的查询可以被嵌入,可以进行向量搜索,以找到与查询最相关的语料库的嵌入文本块(即,在嵌入空间中最接近的)。可以在中找到示例实现。有关如何使用知识检索来最小化模型编造错误事实的可能性的示例,请参阅策略“指示模型使用检索到的知识来回答查询”。
2024-12-30
大模型中的参数和语料是什么意思
大模型中的参数和语料含义如下: 语料:大模型通过输入大量的语料来学习,从而获得类似人类的“思考”能力,能够进行诸如文本生成、推理问答、对话、文档摘要等工作。这些语料通常来自互联网,包括论文、代码、公开网页等,数据量巨大,一般以 TB 级别计。 参数:大模型的参数数量非常多,例如 OpenAI 在 2020 年发布的 GPT3 就已经达到 170B 的参数。参数规模的大小对模型的性能和表现有重要影响。 在大模型的训练和使用过程中,可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练自己的大模型。 2. 确定教材:大模型需要大量的数据量,几千亿序列(Token)的输入基本是标配。 3. 找老师:即采用合适的算法让大模型更好地理解 Token 之间的关系。 4. 就业指导:为了让大模型更好地胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行诸如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的发展历程起源于 2017 年发布的 Attention Is All You Need 论文,之后基于大量语料的预训练模型百花齐放,如 BERT(参数规模:110M 到 340M)、GPT(参数规模:1750 亿)、LLAMA(参数规模:十亿到千亿)等。 大模型的架构包括 encoderonly、encoderdecoder 和 decoderonly 三种,目前常见的 AI 助手基本采用 decoderonly 架构。
2024-08-10
如何在电脑硬件配置普通的情况下,用AI搭建知识库
在电脑硬件配置普通的情况下,用 AI 搭建知识库可以参考以下几种方法: 使用阿里云百炼: 1. 上传文件:在百炼控制台的中的非结构化数据页签中点击导入数据,根据引导上传相关文档。 2. 建立索引:进入,根据引导创建一个新的知识库,并选择刚才上传的文件,其他参数保持默认即可。 3. 选择向量存储类型时,如果您希望集中存储、灵活管理多个应用的向量数据,可选择 ADBPG。 4. 引用知识:完成知识库的创建后,可以返回进入到刚才创建的应用设置界面,打开知识检索增强开关、选择目标知识库,测试验证符合预期后点击发布。 使用 GPT: 要搭建基于 GPT API 的定制化知识库,涉及到给 GPT 输入(投喂)定制化的知识。但 GPT3.5,也就是当前免费版的 ChatGPT 一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字。为了使用 GPT 的语言能力来处理大量的领域知识,OpenAI 提供了 embedding API 解决方案。参考 OpenAI embedding documents。embeddings 是一个浮点数字的向量(列表)。两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。 使用 Dify: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集,为数据集编写良好的描述。 3. 配置索引方式:Dify 提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式,根据实际需求选择合适的索引方式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用,在应用设置中,可以配置数据集的使用方式。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新的内容以保持知识库的时效性。
2025-03-05
如何搭建像你一样的知识库?
搭建像我这样的知识库可以参考以下步骤: 1. 创建智能体: 本次创建知识库可使用手动清洗数据,上节课程是自动清洗数据,自动清洗可能数据不准,手动清洗能提高准确性。参考课程:。 在线知识库:点击创建知识库,创建画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入,可编辑修改和删除。点击添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容以提高训练数据准确度,比如对于画小二 80 节课程分为 11 个章节,先放入大章节名称内容,再按固定方式细化处理,然后选择创建知识库自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到,否则无法获取 API。 2. 用 Coze 免费打造微信 AI 机器人: 确定功能范围。 编写【prompt】提示词,设定 Bot 的身份和目标。 创建【知识库】,整理“关键字”与“AI 相关资料链接”的对应关系并存储。创建知识库路径为个人空间知识库创建知识库,文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用【本地文档】。按照操作指引上传文档、分段设置、确认数据处理。小技巧:可在内容中加特殊分割符“”便于自动切分数据,分段标识符号选“自定义”,内容填“”。最终的知识库结果中,同一颜色代表同一数据段,若内容有误可点击右键编辑或删除。
2025-03-05
如果要搭建一个自己的业务知识的结构化知识库,推荐哪个平台和工具?
以下是为您推荐的搭建自己业务知识结构化知识库的平台和工具: 1. Coze: 影响 RAG 输出质量的因素:当下这些平台的 RAG 能力对问答场景友好,其他场景效果一般。若需要企业级复杂知识库场景,可能需要找专业团队,收费几万到几十万不等。 基础能力:包括提示词(设定 Bot 身份、目标和技能)、插件(通过 API 连接集成平台和服务)、工作流(规划和实现复杂功能逻辑)、记忆库(保留和理解对话细节,添加外部知识库)。 相关参考:编写提示(https://www.coze.cn/docs/guides/prompt)、插件介绍(https://www.coze.cn/docs/guides/create_plugin)、工作流介绍(https://www.coze.cn/docs/guides/workflow)、知识库介绍(https://www.coze.cn/docs/guides/knowledge)、数据库(https://www.coze.cn/docs/guides/database)。 2. 您还可以参考以下文章: 《小七姐:信息管理工具与方法》:从信息源的选择、信息通路的建立、知识结构化、知识内化与应用等方面展示了信息管理和知识体系搭建的过程。 《这可能是讲 Coze 的知识库最通俗易懂的文章了》:其中提到如果想使用专门搭建个人知识库的软件,可以查看《手把手教你本地部署大模型以及搭建个人知识库》(https://waytoagi.feishu.cn/wiki/ZKGmwsQhTihYZ8kdu7uccF1lnQc?from=from_copylink),忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。
2025-03-05
我是一个ai小白,我该如何使用这个知识库
对于 AI 小白来说,使用这个知识库可以参考以下内容: 1. 了解基本概念: 大语言模型就像一个读过无数书、拥有无穷智慧的人,擅长公共知识、学识技能和日常聊天,但在工作场景下需要提示词来明确角色和专注技能,知识库则相当于给员工的工作手册。 例如设定阿里千问模型为 AI 模型,角色为“美嘉”,知识库为《爱情公寓》全季剧情,从而实现特定场景的问答。 2. 科普资源: 对于对 AI 没太多概念的纯纯小白,可以通过以下资源快速了解: 通识篇:现有常见 AI 工具小白扫盲,文章链接(1 小时 32 分开始)。 通识篇:AI 常见名词、缩写解释,文章链接。 3. 从常见工具开始体验: 工具入门篇(AI Tools):数据工具多维表格小白之旅,文章链接,适用于 Excel 重度使用者、手动数据处理使用者、文件工作者,可满足 80%数据处理需求。 工具入门篇(AI Code):编程工具Cursor 的小白试用反馈,文章链接,适用于 0 编程经验、觉得编程离我们很遥远的小白。 工具入门篇(AI Music):音乐工具Suno 的小白探索笔记,文章链接,适用于 0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白。
2025-03-04
怎么用飞书搭建一个人工智能知识库
以下是使用飞书搭建人工智能知识库的相关内容: 1. 参考文章: 《这可能是讲 Coze 的知识库最通俗易懂的文章了》:介绍了一系列关于 AI 知识库的知识,包括“通往 AGI 之路”这个使用飞书软件搭建的 AI 知识库,以及相关文章对 AI 时代知识库的讲解,读完可收获 AI 时代知识库的概念、实现原理、能力边界等内容。 《【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档》:其中提到创建知识库时可使用手动清洗数据,包括在线知识库和本地文档的处理方式,如在线知识库需创建飞书在线文档,每个问题和答案以“”分割等;还介绍了发布应用时要确保在 Bot 商店中能搜到。 《「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人》:提到创建知识库的路径为个人空间知识库创建知识库,文档类型支持本地文档、在线数据、飞书文档、Notion 等,本次使用本地文档,可按照操作指引上传文档、分段设置、确认数据处理,同时提到知识库内容切分粒度的小技巧,如使用特殊分割符“”。 2. 总体步骤: 确定所需的数据清洗方式,如手动或自动清洗。 对于在线知识库,创建飞书在线文档,每个问题和答案以特定方式分割,选择飞书文档、自定义等选项,并可编辑修改和删除。 对于本地文档,注意拆分内容以提高训练数据准确度,按照固定方式进行人工标注和处理。 完成创建后可发布应用,确保在 Bot 商店中能搜到。
2025-03-04
用deepseek打造个人知识库
以下是关于用 DeepSeek 打造个人知识库的相关信息: 可以先将文本拆分成若干小文本块(chunk),通过 embeddings API 将其转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。当用户提出问题时,将问题也转换成向量,与储存库中的向量比对,提取关联度高的文本块,与问题组合成新的 prompt 发送给 GPT API,从而提高回答的准确性和相关性。例如对于“此文作者是谁?”的问题,可以直观或通过比较 embeddings 向量找到关联度最高的文本块,如“本文作者:越山。xxxx。”。 在 RAGFlow 中,可配置本地部署的 DeepSeek 模型。选择 Ollama 并配置相关信息,导入嵌入模型用于文本向量化。设置系统模型后,可创建知识库,导入文件(可设置文件夹)并解析,解析速度取决于本机 GPU 性能。解析完成后进行检索测试,没问题即可进入聊天界面,还可自行设置助理。 此外,AI 编程与炼金术中也涉及 DeepSeek 的相关知识,如在不同章节中的应用,包括给老外起中文名、驱动 Life Coach 等,具体内容可通过相关链接进一步查看。
2025-03-04