Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有什么提升 RAG 知识库问答的好的 prompt

Answer

以下是一些提升 RAG 知识库问答的好的 prompt 相关内容:

  • RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,在使用 MS-MARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用 RAG 后也有更好结果,说明 RAG 是可行方案,能增强知识密集型任务中语言模型的输出,基于检索器的方法常与 ChatGPT 等流行 LLM 结合提高能力和事实一致性,可在 LangChain 文档中找到相关例子。
  • RAG 能显著提高大模型在处理私域知识或垂直领域问答时的效果。其流程包括:上传文档(支持多种格式,会转换为 Markdown 格式)、文本切割、文本向量化(存入向量数据库)、问句向量化、语义检索匹配(匹配出与问句向量最相似的 top k 个)、提交 Prompt 至 LLM、生成回答返回给用户。RAG 研究范式分为基础 RAG、高级 RAG 和模块化 RAG。
    • 高级 RAG 特点:支持多模态数据处理,增强对话性,具备自适应检索策略,能进行知识融合,扩展了基础 RAG 功能,解决复杂任务局限,在广泛应用中表现出色,推动自然语言处理和人工智能发展。
    • 模块化 RAG 侧重于提供更高定制性和灵活性,将系统拆分成多个独立模块或组件,每个组件负责特定功能,便于根据不同需求灵活组合和定制。
Content generated by AI large model, please carefully verify (powered by aily)

References

检索增强生成 (RAG)

RAG在[Natural Questions(opens in a new tab)](https://ai.google.com/research/NaturalQuestions)、[WebQuestions(opens in a new tab)](https://paperswithcode.com/dataset/webquestions)和CuratedTrec等基准测试中表现抢眼。用MS-MARCO和Jeopardy问题进行测试时,RAG生成的答案更符合事实、更具体、更多样。FEVER事实验证使用RAG后也得到了更好的结果。这说明RAG是一种可行的方案,能在知识密集型任务中增强语言模型的输出。最近,基于检索器的方法越来越流行,经常与ChatGPT等流行LLM结合使用来提高其能力和事实一致性。LangChain文档中可以找到[一个使用检索器和LLM回答问题并给出知识来源的简单例子(opens in a new tab)](https://python.langchain.com/docs/use_cases/question_answering/quickstart)。

DAY2 - 更好用的文本知识库应用跟学,快速上手阿里云百炼

RAG可以显著提高大模型在处理私域知识或垂直领域问答时的效果。此处向您展示通过百炼控制台操作将RAG的能力集成到智能体应用中的过程。知识库问答的核心本质是RAG,所以这个时候就需要使用RAG技术能力了,那么什么是RAG呢?(1)上传文档:用户上传包含知识的文档,支持txt、pdf、docx等格式,LangChain Chatchat会将文档转换为Markdown格式(2)文本切割:为了便于分析和处理,将长文本切割为小块(chunk)(3)文本向量化:将切割的chunk通过embedding技术,转换为算法可以处理的向量,存入向量数据库(4)问句向量化:用户提问后,同样将用户的问句向量化(5)语义检索匹配:将用户的问句与向量数据库中的chunk匹配,匹配出与问句向量最相似的top k个(6)提交Prompt至LLM:将匹配出的文本和问句,一起添加到配置好的prompt模板中,提交给LLM(7)生成回答:LLM生成回答,返回给用户RAG研究范式不断发展,本节主要描述了其发展过程。我们将其分为三种类型:基础RAG(Naive RAG)、高级RAG(Advanced RAG)和模块化RAG(Modular RAG)。下图简单的说明了这三种RAG的工作流程:基础RAG

DAY2 - 更好用的文本知识库应用跟学,快速上手阿里云百炼

1.多模态支持:与基础RAG主要处理文本不同,高级RAG可以处理多模态数据,比如图像、音频和视频。这使得它在处理多媒体内容时非常有用,比如图文结合的应用或语音识别。2.对话性增强:高级RAG能够处理更复杂的对话,支持多轮问答。这意味着它在像聊天机器人、虚拟助手等应用中,能够更自然、更深入地与用户交流。3.自适应检索策略:高级RAG具有智能的检索机制,可以根据上下文和任务的需求自动决定何时进行检索,何时使用检索到的信息。这样可以提高效率,同时避免不必要的检索操作,提升整体性能。4.知识融合:高级RAG能够更好地将外部知识(比如从文献、网页等处获取的资料)与模型的内部知识结合,从而生成更有价值、更精准的回答。这在一些需要大量领域知识的任务中尤其有用。总体来说,高级RAG不仅扩展了基础RAG的功能,还解决了它在处理复杂任务时的局限,使得它能够在更广泛的应用中表现出色,推动了自然语言处理和人工智能的进一步发展。模块化RAG模块化RAG(检索增强生成)是RAG的另一种进化形式,主要侧重于提供更高的定制性和灵活性。与基础RAG和高级RAG不同,模块化RAG将RAG系统拆分成多个独立的模块或组件,每个组件负责特定的功能,便于根据不同需求进行灵活组合和定制。以下是模块化RAG的关键特点和概念:

Others are asking
RAG和微调是什么,分别详细讲讲一下它是怎么实现的
RAG(RetrievalAugmented Generation,检索增强生成)是解决大语言模型在实际应用中存在的一些问题的有效方案。 大语言模型存在以下问题: 1. 知识的局限性:模型自身的知识完全源于训练数据,对于实时性、非公开或离线的数据无法获取。 2. 幻觉问题:基于数学概率的文字预测导致可能提供虚假、过时或通用的信息。 3. 数据安全性:企业担心私域数据上传第三方平台训练导致泄露。 RAG 可以让大语言模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制生成的文本输出,用户也能深入了解模型如何生成最终结果。它类似于为模型提供教科书,适用于回答特定询问或解决特定信息检索任务,但不适合教模型理解广泛领域或学习新的语言、格式或样式。 微调类似于让学生通过广泛学习内化知识。这种方法在模型需要复制特定结构、样式或格式时非常有用。微调可以提高非微调模型的性能,使交互更有效率,特别适合强调基础模型中的现有知识,修改或自定义模型的输出,并向模型提供复杂的指令。然而,微调不适合合并模型中的新知识或需要新用例的快速迭代。 参考资料:《RetrievalAugmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)
2025-02-19
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案,旨在帮助理解设计和实施 RAG 系统面临的复杂挑战,激发开发更强大且适用于生产环境的 RAG 应用。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源(如维基百科),这些文档作为上下文和原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应解决方案,包括原论文中的 7 个和额外发现的 5 个。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化,是因为 LLM 存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在 RAG 的应用中,可以将其抽象为 5 个过程:文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。
2025-02-17
口播文案 Prompt
以下是关于口播文案 Prompt 的相关内容: 一、景淮:漫画趣味高中大学时期对比图 GPTs 实战 在这个示例中,先将相关示例喂给 GPT,观察其生成文案的效果。提示词为上述高中和大学区别的口播搞笑视频,重点突出不同时期的生活状态和鲜明反差。输入关键词“下雨了”后,生成了以下口播文案: 1. 高中:下雨了,天哪,怎么办,我的数学书会湿!大学:下雨了,哦,正好,再睡一会儿。 2. 高中:下雨了,得快跑,别迟到了!大学:下雨了,那今天就不去了,网课见。 3. 高中:下雨了,我的鞋子!得小心踩!大学:下雨了,穿拖鞋去了,方便。 4. 高中:下雨了,雨衣雨伞全副武装!大学:下雨了,抓个文件夹顶顶就行。 5. 高中:下雨了,课间不能出去玩了。大学:下雨了,正好和室友打个牌。 6. 高中:下雨了,哦不,体育课怎么办?大学:下雨了,哈,今天体育课取消了! 7. 高中:下雨了,我的作业别淋湿了!大学:下雨了,电脑在宿舍,作业得推迟了。 8. 高中:下雨了,赶紧找地方躲雨。大学:下雨了,雨中漫步也挺浪漫的。 9. 高中:下雨了,不会影响放学吧?大学:下雨了,嘿,这是不是个不去自习的理由? 10. 高中:下雨了,我的头发!大学:下雨了,谁还没个糟糕的头发日呢。 二、歌词提示词 1. 柔和的原声乐器引子:指在歌曲开头使用柔和的原声乐器(如原声吉他或钢琴)演奏的部分。作用是设置温暖、亲密的氛围,引导听众进入歌曲。适用于民谣、流行音乐、乡村音乐等风格,编曲技巧是使用原声吉他或钢琴演奏柔和的旋律或和声,创造出温暖和亲密的开场效果。 2. 富有灵魂感的:充满情感和灵魂的表现,通常具有深情的旋律和强烈的情感表达。作用是增强音乐的情感深度和感染力,适用于灵魂乐、R&B、流行音乐等风格,编曲技巧是使用深情的旋律、柔和的和声和强烈的情感表达。 3. 富有灵魂感的桥段:在歌曲中间部分或过渡部分,充满情感和灵魂的旋律或和声。作用是增强音乐的情感深度和结构变化,适用于灵魂乐、R&B、流行音乐等风格,编曲技巧是在歌曲的过渡部分设计一个深情且富有灵魂感的桥段。 4. 口语:在歌曲或音乐中使用普通说话的方式进行表演,而不是唱歌。作用是增加音乐的叙述性和亲密感,强调歌词的内容和表达,适用于说唱、独立音乐、实验音乐等风格,编曲技巧是在适当的段落使用口语表演。 三、Prompt 的专场教程 基础篇 1. Prompt 是一段指令,用于指挥 AI 生成所需内容,每个单独的提示词叫 tag(关键词)。 2. 支持的语言为英语(不用担心英语不好的问题,),另外 emoji 也可以用。 3. 语法规则: 用英文半角符号逗号,来分隔 tag,逗号前后有空格或者换行都不影响效果。 改变 tag 权重:tag 顺序越靠前对于 SD 来说权重越大,可通过“括号,权重就重 1.1 倍,每加一层括号就反向减弱 1.1 倍)两种方式设置。 进行 tag 的步数控制(高级玩法):“”,数字大于 1 理解为第 X 步前为 tag1,第 X 步后变成 tag2,数字小于 1 理解为总步数的百分之 X 前为 tag1,之后变成 tag2。
2025-02-18
prompt的应用
以下是关于 prompt 应用的全面介绍: 一、什么是 prompt 1. 提示是您给模型(如 Claude)的文本,用于引发相关输出。它通常以问题或指示的形式出现。例如:“为什么天空是蓝色的?” 2. 在 AI 视频生成中,prompt 是直接描述或引导视频生成的文本或指令。类似给 AI 的提示,包含主体、运动、风格等信息,用户借此控制和指导生成内容。它在 AI 视频生成中作用十分重要,是表达需求的方式,影响视频内容和质量。如果上述过于抽象,您可以理解 Prompt 为:将您输入的文字变成对应的画面和运动形式。 3. 简单来说,prompt 是一套您和大模型交互的语言模板。通过这个模板,您可以输出对于大模型响应的指令,用于指定大模型应该具体做什么、完成什么任务、如何处理具体的任务,并最终输出您期望的结果。大模型的本质是一个基于语言的概率模型,若直接问大模型而不提供 prompt,相当于大模型随机给出答案。有了 prompt,相当于给了一个模板,包括对于模型的要求、输入和输出的限制,大模型在这个限制之下,去得到概率最大的答案。 二、prompt 在不同场景的应用 在即梦 AI 视频生成中,要想获得最佳的视频质量,需要写好 prompt。在图片生视频和文本生视频中,都有 prompt 的输入位置。
2025-02-18
12个精选prompt框架
以下是 12 个精选的 prompt 框架: 1. ICIO 框架: 指令:执行的具体任务。 背景信息:提供执行任务的背景信息、上下文内容,让大模型更好地回答。 输入信息:大模型需要用到的一些信息。 输出信息:明确输出的具体信息的要求,比如字数、风格、格式。 2. BROKE 框架:通过 GPT 的设计提示,来提升整体反馈的效率。 背景:提供足够背景信息,让大模型可以理解问题的上下文。 角色设定:特定的角色,让 GPT 根据特定的角色能力的特点来形成响应。 目标:明确任务的目标,让大模型知道您想让它做什么。 结果定义:明确可以衡量的结果,让大模型清楚自己做的情况。 调整:根据具体的情况,来调整具体的结果。 3. CRISPIE 框架: 能力和角色:您期望大模型扮演的角色洞察,提供幕后洞察力、背景信息和上下文。 声明:简洁明了地说明希望完成的任务。 个性:回应的风格、个性或者方式。 实验:提供多个回答的示例。 4. 课件中的 Prompt 之术“三板斧”: 分配角色。 给出示例(fewshots)。 思维链(ChainofThought)。
2025-02-17
prompt
以下是关于 prompt 的相关知识: 1. 提示简介: 提示是您给 Claude 的文本,用于引发相关输出,通常以问题或指示的形式出现。例如,“User:Why is the sky blue? 为什么天空是蓝色的?”,Claude 回答的文本被称为“响应”,有时也被称为“输出”或“完成”。 2. 改变区域+混音: 选择的大小会影响结果。更大的选择为中途机器人提供更多上下文信息,能改善新添加内容的扩展和上下文,但选择太多可能导致新生成的元素混合或替换原始图像的部分。 提示应集中于您希望在所选区域中发生的事情,较短且聚焦的提示通常更有效,不应是对话式的。 分步进行,如果要更改图像的多个部分,一次只处理一个部分。 技术细节:使用 Vary+Remix 模式生成的作业遵循 chaos、fast、iw、no、stylize、relax、style、version、video、weird 等参数。 3. 提示的类型: 基本提示:可以是简单的单词、短语或表情符号。中途机器人最适合用简单、简短的句子来描述您想看到的内容,避免长长的请求列表。 高级提示:可以包括一个或多个图像 URL、多个文本短语以及一个或多个参数。图像 URL 始终出现在提示的前面,精心编写的提示有助于生成令人惊叹的图像。
2025-02-17
给我提供一份标准的 DeepSeek R1大模型的 prompt 提示词模板
以下是一份关于 DeepSeek R1 大模型的 prompt 提示词模板: 一、核心原理认知 1. AI 特性定位 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 4K tokens 上下文窗口,换算成汉字是 8000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 2. 系统响应机制 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 二、基础指令框架 1. 四要素模板 2. 格式控制语法 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 三、进阶控制技巧 1. 思维链引导 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 2. 知识库调用 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 3. 多模态输出 此外,还有关于创建 DeepSeek 联网版工作流的相关内容: 1. 创建工作流 创建一个对话流,命名为 r1_with_net 开始节点,直接使用默认的 大模型分析关键词设置 模型:豆包通用模型lite 输入:直接使用开始节点的 USER_INPUT 作为大模型的输入 系统提示词:你是关键词提炼专家 用户提示词:根据用户输入`{{input}}`提炼出用户问题的关键词用于相关内容的搜索 bingWebSearch搜索 插件:BingWebSearch 参数:使用上一个节点,大模型分析输出的关键词作为 query 的参数 结果:data 下的 webPages 是网页搜索结果,将在下一个节点使用 大模型R1 参考搜索结果回答 这里需要在输入区域开启“对话历史” 模型:韦恩 AI 专用 DeepSeek 输入:搜索结果,选择搜索节点 data 下的 webPages;选择开始节点的 USER_INPUT;开启对话历史,设置 10 轮,默认不开启对话历史,开启后默认是 3 轮 系统提示词:这里不需要输入 用户提示词: 结束节点设置 输出变量选择大模型R1 参考搜索结果回答的输出 回答内容里直接输出:{{output}} 测试并发布工作流 输入你的测试问题,测试完成后,直接发布工作流 关于 HiDeepSeek 的相关内容: 1. 效果对比 用 Coze 做了个小测试,大家可以对比看看 2. 如何使用? Step1:搜索 www.deepseek.com,点击“开始对话” Step2:将装有提示词的代码发给 Deepseek Step3:认真阅读开场白之后,正式开始对话 3. 设计思路 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 4. 完整提示词 v 1.3 5. 特别鸣谢 李继刚:【思考的七把武器】在前期为我提供了很多思考方向 Thinking Claude:这个项目是我现在最喜欢使用的 Claude 提示词,也是我设计 HiDeepSeek 的灵感来源 Claude 3.5 Sonnet:最得力的助手
2025-02-16
用AI写PPT,prompt用什么?
如果您想用 AI 写 PPT,以下是一些关于 prompt 的建议: 1. Prompt 的本质是用编程语言的结构加上自然语言的内容打造 AI 指令,让 AI 可以像理解程序一样理解人类的指令。比较友好易懂的是 Markdown 的结构化语言格式。例如,在写流程时,用“”代表层级,“”代表一级类目,“”代表子类目,这样能明确 prompt 的执行顺序。 2. 每个单独的提示词叫 tag(关键词)。支持的语言为英语(不用担心英语不好的问题,),emoji 也可以用。 3. 语法规则: 用英文半角符号逗号“,”来分隔 tag,逗号前后有空格或者换行不影响效果。 改变 tag 权重:tag 顺序越靠前对于 SD 来说权重越大,还可以通过“/…”(每加一层括号权重变化)来设置权重。 进行 tag 的步数控制(高级玩法):“”,数字大于 1 理解为第 X 步前为 tag1,第 X 步后变成 tag2;数字小于 1 理解为总步数的百分之 X 前为 tag1,之后变成 tag2。 此外,像卓 sir 在制作电商模式相关的 PPT 时,通过与 GPT4 自然交流确定主题和企业代表,然后编写 PPT 大纲的 prompt,并经过多次迭代和优化。您可以参考这些经验和方法来构建适合您需求的 prompt。
2025-02-15
现在有哪些个人知识库软件可以用,请推荐。
以下是为您推荐的个人知识库软件: 1. Coze:如果您想使用专门搭建个人知识库的软件,可以参考文章,忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。 2. AnythingLLM:包含所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型和向量数据库。安装地址:https://useanything.com/download 。安装完成后,配置页面主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。在 AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式),配置完成后即可进行对话测试。 此外,还有通过 GPT 打造个人知识库的方法,比如将文本转换成向量节省空间,拆分成小文本块并通过 embeddings API 转换成 embeddings 向量,在向量储存库中保存这些向量和文本块作为问答的知识库。当用户提问时,将问题转换成向量与库中向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。
2025-02-19
waytoagi的知识库基于哪个LLM创建的
目前没有明确的信息表明 waytoagi 的知识库基于哪个 LLM 创建。但以下信息可能对您有所帮助: AnythingLLM 包含了所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型、选择向量数据库等。安装地址为:https://useanything.com/download 。安装完成后配置主要分为三步,包括选择大模型、选择文本嵌入模型、选择向量数据库。AnythingLLM 中有 Workspace 的概念,可创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式)等。 GitHubDaily 开源项目列表中提到了 AnythingLLM,它是一个可打造成企业内部知识库的私人专属 GPT,可以将任何文档、资源或内容转换为大语言模型(LLM)知识库。
2025-02-19
用飞书搭建知识库并进行AI问答
以下是关于用飞书搭建知识库并进行 AI 问答的相关内容: 知识库问答是机器人的基础功能,可根据用户问题从知识库中找到最佳答案,这利用了大模型的 RAG 机制。RAG 机制全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术,结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。 简单来说,RAG 机制先从大型数据集中检索与问题相关的信息,然后利用这些信息生成更准确、相关的回答。可以想象成当问复杂问题时,RAG 机制先在巨大图书馆里找相关书籍,再基于这些书籍信息给出详细回答。这种方法结合大量背景信息和先进语言模型能力,使生成内容更精确,提升对话 AI 的理解力和回答质量。 基于 RAG 机制实现知识库问答功能,首先要创建包含大量社区 AI 相关文章和资料的知识库,比如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传栏目所有文章内容,陆续将社区其他板块文章和资料导入。在设计 Bot 时,添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地利用知识库返回内容结合回答。 另外,全程白嫖拥有一个 AI 大模型的微信助手的搭建步骤如下: 1. 搭建,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,并获取白嫖大模型接口的方法。 2. 搭建,这是个知识库问答系统,放入知识文件,接入上面的大模型作为分析知识库的大脑来回答问题。若不想接入微信,搭建到此即可使用,它有问答界面。 3. 搭建,其中的 cow 插件能进行文件总结、MJ 绘画。
2025-02-19
有哪些比较好的AI知识库学习网站
以下是一些比较好的 AI 知识库学习网站及相关学习建议: 通往 AGI 之路知识库: 提供了全面系统的 AI 学习路径,帮助您了解从 AI 常见名词到 AI 应用等各方面知识。 包含关于 AI 知识库使用及 AIPO 活动的介绍、AIPO 线下活动及 AI 相关探讨、way to AGI 社区活动与知识库介绍等内容。 信息来源有赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,推荐大家订阅获取最新信息并投稿。 有社区共创项目,如 AIPU、CONFIUI 生态大会,每月有切磋大会等活动,还发起了新活动 AIPO。 学习路径方面,有李弘毅老师的生成式 AI 导论等高质量学习内容,可系统化学习或通过社区共创活动反推学习,鼓励整理学习笔记并分享交流。 有经典必读文章,如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 初学者入门推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 有历史脉络类资料,整理了 open AI 的发展时间线和万字长文回顾等。 网站:ytoAGI.com 相关渠道:公众号“通往 AGI 之路”、 在线教育平台:如 Coursera、edX、Udacity 等,上面有一系列为初学者设计的课程,您可以按照自己的节奏学习,并有机会获得证书。 对于新手学习 AI,建议: 了解 AI 基本概念:阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
2025-02-18
怎么做一个知识库智能问答机器人?
要做一个知识库智能问答机器人,主要基于大模型的 RAG 机制,具体步骤如下: 1. 理解 RAG 机制:RAG 机制全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术,结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。它先从大型数据集中检索与问题相关的信息,然后利用这些信息生成更准确、相关的回答。可以想象成在巨大图书馆里找相关书籍,再基于书籍信息给出详细回答,这种方法结合大量背景信息和先进语言模型能力,使生成内容更精确,提升对话 AI 的理解力和回答质量。 2. 创建知识库:创建包含大量社区 AI 相关文章和资料的知识库,例如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传文章内容,并陆续将社区其他板块的文章和资料导入。 3. 设计 Bot:在设计中添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能利用好知识库返回的内容进行结合回答。 此外,在飞书中,还可以利用飞书智能伙伴创建平台(Aily)来搭建 FAQ 机器人,它是飞书团队旗下的企业级 AI 应用开发平台,能为企业提供简单、安全且高效的环境,帮助轻松构建和发布 AI 应用。
2025-02-18
知识库搭建
知识库搭建主要包括以下几个方面: 1. “拎得清、看得到、想得起、用得上”的核心步骤: 拎得清:主动选择和判断高质量、与目标相关的信息源,利用 AI 搜索引擎、加入优质社群和订阅号等建立信息通路,具备信息嗅探能力。 看得到:确保所选信息能频繁且不经意地触达个人,通过浏览器插件、笔记工具等组织信息,使其易于检索和浏览。 想得起:强调信息的内化和知识线索建立,做好标记(关键词、tag)、选择合适存放位置,推荐使用 PARA 笔记法等方法组织串联信息。 用得上:将积累的知识转化为实际行动和成果,在解决问题或创造价值时能从知识库中调取相应信息。 2. RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 RAG 是当需要依靠不包含在大模型训练集中的数据时的主要方法,首先检索外部数据,然后在生成步骤中将其传递给 LLM。 RAG 应用包括文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。 文本加载器是将用户提供的文本加载到内存中以便后续处理。 3. 智能体知识库创建: 手动清洗数据,提高数据准确性。 在线知识库:创建画小二课程的 FAQ 知识库,飞书在线文档中每个问题和答案以分割,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理。 发布应用:确保在 Bot 商店中能搜到。
2025-02-18
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
waytoAGI知识库智能问答机器人是如何实现的
waytoAGI 知识库智能问答机器人的实现方式如下: 基于 Aily 和云雀大模型。Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。云雀是字节跳动研发的语言模型,能通过自然语言交互高效完成互动对话等任务。 在飞书 5000 人大群里内置,根据通往 AGI 之路的文档及知识进行回答。使用方法为在飞书群里发起话题时,它会根据 waytoAGI 知识库的内容进行总结和回答。 其具备多种功能,如自动问答、知识搜索、文档引用、互动教学、最新动态更新、社区互动、资源共享、多语言支持等。 搭建过程包括介绍 WaytoAGI 社区的成立愿景和目标、利用 AI 技术帮助用户检索知识库内容、引入 RAG 技术、介绍基于飞书的知识库智能问答技术的应用场景和实现方法、使用飞书的智能伙伴功能搭建 FAQ 机器人以及智能助理的原理和使用方法等。
2025-02-12
如何使用钉钉中的知识库构建智能问答机器人
以下是使用钉钉中的知识库构建智能问答机器人的步骤: 1. 纯 GPT 大模型能力的微信聊天机器人搭建: 配置极简未来(Link.AI)平台:按照官方教程操作,教程地址为 https://docs.linkai.tech/platform/createapp ,学习补充可参考 https://docs.linkai.tech/platform/quickstart 。 教程中的应用是创建一个具体的 AI 问答机器人应用。 教程中的知识库是给绑定到指定问答机器人的资料数据集,让机器人基于这些内容回答问题。 知识库应用中的应用设定是给 AI 机器人的提示词内容或者人设,关于提示词可查看教程 https://waytoagi.feishu.cn/wiki/OqJQwzq2wi9EIOkFtFkclM24nSe 。 创建成功的 AI 应用,记住应用的应用 ID,用于后续对接微信聊天机器人。 生成 API Key 用于后续功能对接,地址为 https://linkai.tech/console/interface ,点击创建 API Key 并记住。 2. 用 Coze 免费打造自己的微信 AI 机器人: 设计 AI 机器人: 开始节点和结束节点会自动生成。 开始节点配置:输入变量名写“Question”,描述写“用户输入的问题”,变量类型选“String”。 知识库配置:将开始节点和知识库左侧节点连接,知识库输入引用开始节点的变量“Question”,点击“+”号选择之前创建好的知识库,将知识库右侧节点与结束节点左侧连起来。 结束节点配置:用于输出 AI 机器人的最终结果,回答格式设置为“您的问题:{{question}} 问题的答案:{{answer}}”,在输出变量那里定义“question”引用“开始节点的 Question”,“answer”引用“知识库节点的输出 output”,回答模式选择使用设定的内容直接回答。 试运行测试:点击右上角“试运行”,输入问题如“AIGC 课件”,点击右下角“运行”,查看工作流每一步的详细输入和输出。
2025-02-12
问答方式如何使用好大模型
以下是关于如何使用好大模型的一些指导: 1. 本地部署资讯问答机器人: 加载所需的库和模块,如用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前确保 ollama 服务已开启并下载好模型)。 从订阅源获取内容,可通过指定的 RSS 订阅 url 提取,如需多个 url 稍作改动即可。然后用专门的文本拆分器将长文本拆分成小块,并附带相关元数据,最终合并成列表用于后续处理。 为文档内容生成向量,使用文本向量模型 bgem3,从 hf 下载好模型放置在指定路径,通过函数利用 FAISS 创建高效向量存储。 Ollama 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。提供模型库,用户可从中下载不同模型,还支持自定义模型,如修改温度参数等,同时提供 REST API 用于运行和管理模型及与其他应用集成,社区贡献丰富。需先安装,可通过 https://ollama.com/download/ 下载,安装后确保后台服务已启动。 2. 编写清晰的说明: 在 OpenAI 官方说明文档中提到的“官方最佳实践”为用户提供了若干策略。 策略一是编写清晰的说明,在询问中包含详细信息,多说一些内容,多提供一些信息,能有效提高大模型回复的质量和丰富性。通过多个具体例子展示了提供更多细节能得到更符合预期的回答。
2025-02-11