以下是关于让大模型严格按照知识库内容进行输出的相关信息:
扣子的知识库功能很强大,它可以帮你上传和存储外面的知识内容,并且提供了很多种查找知识的方法。如果你的大模型有时候会出现幻觉,或者在某些专业领域知识不够,扣子的知识能力就能帮你解决这个问题,让你的大模型回复得更准确。在我的智能体里面,我用到了自己的知识库,我收集了很多关于地道口语表达的短句,知识库可以包含很多格式的文件,我只用了文本格式,有了自己的知识库,当智能体回答用户的时候会首先检索自己的知识库内容。👉开场白为了体验更好,我们还可以添加一段开场白,告诉用户我们是这个智能体是干什么的?我的开场白:想象一下,当你能够流畅地与世界各地的朋友交流,当你能够用英文表达内心的情感与思考,当你能够欣赏英文诗歌的韵律与美感,那种成就感与喜悦将会如泉水般涌上心头。英语口语,它不仅仅是一种交流的工具,更是一种文化的载体,一种思维的表达,一种与世界对话的桥梁。给我一个日常对话场景,我将还你一句地道口语表达...🎤那么,你的场景是...?
第一步:开始节点,接收用户选择的小说人物角色名称第二步:知识库节点,将输入的小说角色名称作为query去知识库检索该角色的性格特点和经典台词第三步:大模型节点,让大模型对信息进行筛选,并采用json格式输出第四步:代码节点,对上游的输入数据进行规整,格式化输出第五步:text2image,引用上一步输出的feature(用于描述人物性格和特点),作为prompt,生成人物的角色照第六步:结束节点,输出人物台词和角色照👉工作流图参考:第3个工作流是ask_character,当用户向小说角色提问时,Bot会调用此工作流获取结果,本质上是一个根据用户query进行RAG(Retrieval Augmented Generation,检索增强生成)的任务,这是非常重要的一个工作流,关系到用户和小说人物角色对话时Bot的回答质量。👉工作流拆解:第一步:开始节点,接收用户向小说人物角色提问的问题第二步:知识库节点,将问题作为query去小说内容中进行语义检索和全文检索第三步:大模型节点,让大模型根据问题和检索到的上下文信息,生成答案第四步:结束节点,输出答案,作为小说人物的回答👉工作流图参考:另外,大家可以看到,在每个工作流里面,我们都嵌入了一个知识库节点,我们维护了如下3个知识库:知识库的整理和清洗,可以说是dirty work。小说合集。这里面包含了4本小说。
大模型节点是调用大语言模型,使用变量和提示词生成回复大家直接点击“+”,就可以生成有一个大模型节点让我们把各个节点链接起来吧!然后,让我们来看看每部分[heading2]模型[content]1.大家按需使用,基础版对比请看10.3基础版:支持扣子预设的一批模型资源,例如豆包Function call模型等。专业版:除默认添加的豆包模型之外,还支持按需接入火山引擎方舟平台的模型资源,模型列表可参考模型发布公开。操作步骤可参考为扣子专业版接入模型。2.模型选择右下角生成多样性用于从多个维度调整不同模型在生成内容时的随机性。扣子提供以下预置的模式供你选择,每个模式的模型参数取值不同。精确模式:模型的输出内容严格遵循指令要求,可能会反复讨论某个主题,或频繁出现相同词汇。平衡模式:平衡模型输出的随机性和准确性。创意模式:模型输出内容更具多样性和创新性,某些场景下可能会偏离主旨。[heading2]输入[content]1.智能体对话历史开启智能体对话历史后,上下文信息将自动携带进入大模型1.参数名与变量值1.1.参数名是你开始随便设置,建议设置成有一定命名规律的名称1.2.变量值1.2.1.引用1.2.1.1.可以选择前面的链接过的节点的输出1.2.1.2.这个地方只可以接受前面的输出1.2.2.输入1.2.2.1.这个可以当做固定回复