直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

AGI 和RAG AGENT有什么区别

回答

AGI(通用人工智能)、RAG(检索增强生成)和 Agent 存在以下区别:

Agent

  • 本质是动态 Prompt 拼接,通过工程化手段将业务需求转述为新的 Prompt。
  • 包含短期记忆(messages 里的历史 QA 对)和长期记忆(summary 之后的文本塞回 system prompt)。
  • 可以通过工具触发检索和 Action,触发 tool_calls 标记进入请求循环,拿模型生成的请求参数进行 API request,再把结果返回给大模型进行交互。
  • 如 Multi Agents ,主要是更换 system prompt 和 tools 。
  • 为 LLM 增加工具、记忆、行动、规划等能力,目前行业主要使用 langchain 框架,在 prompt 层和工具层完成设计。
  • 有效使用工具的前提是全面了解工具的应用场景和调用方法,学习使用工具的方法包括从 demonstration 中学习和从 reward 中学习。
  • 在追求 AGI 的征途中,具身 Agent 强调将智能系统与物理世界紧密结合,能够主动感知和理解物理环境并互动,产生具身行动。

RAG

  • 是向量相似性检索,可放在 system prompt 里或通过 tools 触发检索。

AGI:是一种更广泛和全面的智能概念,旨在实现类似人类的通用智能能力。

需要注意的是,这些概念的发展和应用仍在不断演进,想做深做好还有很多需要探索和解决的问题。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

有用Agent产品开发踩坑及思考

其实只要看过官方文档的应该都能知道,大模型请求中,最大的两个变量:Messages和Tools。Messages里面放的是sys prompt,memory,user query;Tools里面放的是一些能力的Json Scheme;而这两者组合在一起,就形成整个完全的Prompt。所以Agent应用开发的本质是什么?动态Prompt拼接。通过工程化的手段,不断把业务需求转述成新的prompt。短期记忆:messages里的历史QA对;长期记忆:summary之后的本文,再塞回system prompt;RAG是啥?向量相似性检索,然后放在system prompt里或者通过tools触发检索Action:触发tool_calls标记,进入请求循环,拿模型生成的请求参数进行API request,再把结果返回给大模型进行交互;没有tool_calls标记了,循环结束。对应页面上就是对话一轮对话结束。Multi Agents是啥?把system prompt和tools换一换,A就变成B了。还有啥?没了呀,本质就是这些东西。当然,这也就是最基本的原理,想做深,做好,肯定还有很多坑需要踩。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

agent算是从年前到现在,比较火的一个概念了,也被很多人认为是大模型的未来的一个主要发展方向。首先我们看这个很经典的一张图看起来还是蛮复杂的,然后市面上的很多描述agent的文章写的也比较复杂,说智能体是啥智能的最小单元,相较于copilot,是可以给他设定一个目标后主动完成任务的等等。当然这些说法都没错,但是我觉得还是有些不好理解的。所以我们依然先从原理着手去理解下,agent是个什么东西。首先这张图里,中间的“智能体”,其实就是llm,或者说大模型。四个箭头,分别是我们为llm增加的四个能力。工具、记忆、行动、规划。那么这个是怎么新增的呢?目前行业里主要用到的是一个叫langchain的框架,这个框架可以简单理解为,他把llm和llm之间,以及llm和工具之间,通过代码或prompt的形式,进行了串接。这个其实也像是在rag的基础上再进了一步。因为我们知道rag其实是给了大模型一个浏览器工具来使用嘛,那agent,其实就是给了大模型更多的工具。比如像是长期记忆,其实就是给了大模型一个数据库工具让其往里记录重要信息。规划和行动,其实就是在大模型的prompt层做的些逻辑,比如让其将目标进行每一步的拆解,拆解完成后,每一步去输出不同的固定格式action指令,给到工具作为输入。当然langchain或者说agent还不止这些,也会有很多其他的代码逻辑体现在其中,不过其主要的主干逻辑,其实还是在prompt层和工具层,完成的设计。

AI-Agent系列(一):智能体起源探究

理解工具:AI Agent有效使用工具的前提是全面了解工具的应用场景和调用方法。没有这种理解,Agent使用工具的过程将变得不可信,也无法真正提高AI Agent的能力。利用LLM强大的zero-shot learning和few-shot learning能力,AI Agent可以通过描述工具功能和参数的zero-shot demonstartion或提供特定工具使用场景和相应方法演示的少量提示来获取工具知识。这些学习方法与人类通过查阅工具手册或观察他人使用工具进行学习的方法类似。在面对复杂任务时,单一工具往往是不够的。因此,AI Agent应首先以适当的方式将复杂任务分解为子任务,然后有效地组织和协调这些子任务,这有赖于LLM的推理和规划能力,当然也包括对工具的理解。使用工具:AI Agent学习使用工具的方法主要包括从demonstartion中学习和从reward中学习(清华有一篇从训练数据中学习的文章)。这包括模仿人类专家的行为,以及了解其行为的后果,并根据从环境和人类获得的反馈做出调整。环境反馈包括行动是否成功完成任务的结果反馈和捕捉行动引起的环境状态变化的中间反馈;人类反馈包括显性评价和隐性行为,如点击链接。具身智能在追求人工通用智能(AGI)的征途中,具身Agent(Embodied Agent)正成为核心的研究范式,它强调将智能系统与物理世界的紧密结合。具身Agent的设计灵感源自人类智能的发展,认为智能不仅仅是对预设数据的处理,更多地来自于与周遭环境的持续互动和反馈。与传统的深度学习模型相比,LLM-based Agent不再局限于处理纯文本信息或调用特定工具执行任务,而是能够主动地感知和理解其所在的物理环境,进而与其互动。这些Agent利用其内部丰富的知识库,进行决策并产生具体行动,以此改变环境,这一系列的行为被称为“具身行动”。

其他人在问
有没有语音交互领域的AI Agent的好的思路
以下是关于语音交互领域的 AI Agent 的一些思路: 1. 构建像人一样的 Agent:实现所需的记忆模块、工作流模块和各种工具调用模块,这在工程上具有一定挑战。 2. 驱动躯壳的实现:定义灵魂部分的接口,躯壳部分通过 API 调用,如 HTTP、webSocket 等。要处理好包含情绪的语音表达以及躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。 3. 保证实时性:由于算法部分组成庞大,几乎不能单机部署,特别是大模型部分,会涉及网络耗时和模型推理耗时,低延时是亟需解决的问题。 4. 实现多元跨模态:不仅要有语音交互,还可根据实际需求加入其他感官,如通过添加摄像头数据获取视觉信息并进行图像解析。 5. 处理拟人化场景:正常与人交流时会有插话、转移话题等情况,需要通过工程手段丝滑处理。 此外,像 AutoGLM 这样的产品,通过模拟人类操作来实现跨应用的控制,展现出了一定的智能理解能力,如能根据用户意图选择合适的应用场景。但仍存在语音识别偏差、操作稳定性需提升、支持平台有限等问题,未来随着多模态理解能力和操作精准度的提高,发展空间较大。
2024-11-19
AI agent和智能体有什么区别
AI agent 和智能体在以下方面存在区别: 1. 概念侧重点:AI agent 更强调作为数字人的大脑,拥有记忆模块等,以实现更真实的交互;智能体则被视为智能的最小单元,是可以设定目标后主动完成任务的。 2. 能力构成:AI agent 主要通过接入大语言模型,并结合工具、记忆、行动、规划等能力来发挥作用;智能体不仅具备推理能力,还能执行全自动化业务,但目前许多相关产品仍需人类参与。 3. 实现方式:AI agent 目前行业里主要通过如 langchain 框架,在 prompt 层和工具层完成设计,将大模型与工具进行串接;智能体在实现上可能涉及更多复杂的技术和逻辑。
2024-11-12
我想从互联网上搜集某些类型的论文,并且自动整理成我想要的格式,有什么基于大模型的agent或者软件推荐吗
以下是一些基于大模型的 agent 或者软件,可帮助您从互联网上搜集某些类型的论文并自动整理成您想要的格式: 1. 文献管理和搜索: Zotero:结合 AI 技术,可自动提取文献信息,助您管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,能提供相关文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,提高论文语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化的软件,可进行复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:虽不是纯粹的 AI 工具,但结合自动化和模板,可高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 此外,在 AI 文章排版方面,以下工具可供选择: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. LaTeX:常用于学术论文排版,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版。 4. PandaDoc:文档自动化平台,用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 LaTeX 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,LaTeX 和 Overleaf 受欢迎;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-11-09
我如果要自建一个Agent,该怎么做
自建一个 Agent 可以按照以下步骤进行: 1. 从案例入门 三分钟捏 Bot Step 1:(10 秒)登录控制台 登录扣子控制台(coze.cn)。 使用手机号或抖音注册/登录。 Step 2:(20 秒)在我的空间创建 Agent 在扣子主页左上角点击“创建 Bot”。 选择空间名称为“个人空间”、Bot 名称为“第一个 Bot”,并点击“确认”完成配置。如需使用其他空间,请先创建后再选择;Bot 名称可以自定义。 Step 3:(30 秒)编写 Prompt 填写 Prompt,即自己想要创建的 Bot 功能说明。第一次可以使用一个简短的词语作为 Prompt 提示词。 Step 4:(30 秒)优化 Prompt 点击“优化”,使用来帮忙优化。 Step 5:(30 秒)设置开场白 Step 6:(30 秒)其他环节 Step 7:(30 秒)发布到多平台&使用 2. 进阶之路 15 分钟做什么 查看下其他 Bot,获取灵感 1 小时做什么 找到和自己兴趣、工作方向等可以结合的 Bot,深入沟通 阅读以下文章:文章 1、文章 2、文章 3 一周做什么 了解基础组件 寻找不错的扣子,借鉴&复制 加入 Agent 共学小组 尝试在群里问第一个问题 一个月做什么 合理安排时间 参与 WaytoAGI Agent 共学计划 自己创建 Agent,并分享自己捏 Bot 的经历和心得 3. 在 WaytoAGI 有哪些支持 文档资源 交流群 活动 工具篇: 1. 人和动物的本质区别之一,就是会使用工具,因此工具也是智能体中非常基础和重要的一环。 2. 通常 Agent 框架中会自带非常多的工具,请先熟悉这些自带的工具。 制作工具 互联网 API 工具:Jina 说明: 手册:https://jina.ai/ 工具:高德 API 说明:是高德地图提供的一套开放接口,可以实现地图展示、地理编码、逆地理编码、路径规划、地点搜索等功能。开发者可以通过调用这些 API 来实现自己的地图应用。 手册:https://lbs.amap.com/api/ 本机软件 自行构建 平台自带工具/插件 特别推荐:大聪明的插件:webcopilot Coze.cn 插件列表: coze 插件说明文档 👀小技巧:采用罗文提供的提示词可以获取插件说明:(⚠️施工中...目前差错非常多,暂时处于不可用状态,在后续持续的共创活动中将逐步完善) 文章:LLM 驱动的自主 Agents | Lilian Weng 1. 实例探究 概念验证示例 引起了人们对建立以 LLM 作为主控制器的自治 Agents 的可能性的广泛关注。考虑到自然语言界面,它存在很多可靠性问题,但仍然是一个很酷的概念验证演示。AutoGPT 中的很多代码都是关于格式解析的。 这是 AutoGPT 使用的系统消息,其中{{...}}是用户输入。 是另一个项目,用于根据自然语言指定的任务创建整个代码存储库。GPTEngineer 被指示思考一系列较小的组件来构建,并根据需要要求用户提供输入以澄清问题。 以下是发送到 GPTEngineer 使用的 OpenAI ChatCompletion 端点的用于说明任务的示例对话。用户输入被包装在{{user input text}}。 然后,在这些澄清之后,Agents 进入代码编写模式并显示不同的系统消息。系统消息: 对话样本:
2024-11-08
agent案例
以下是为您提供的关于 Agent 的相关案例和信息: 四种 Agent 设计范式: Reflection(反思):类似于 AI 的自我纠错和迭代。例如让用 Reflection 构建好的 AI 系统写代码,AI 会把代码加上检查正确性和修改的话术再返回给自己,然后反复进行,完成自我迭代。 Tool Use(工具使用):大语言模型调用插件,极大拓展了 LLM 的边界能力。 智能体的类型: 简单反应型智能体(Reactive Agents):根据当前感知输入直接采取行动,不维护内部状态和考虑历史信息。例如温控器。 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入进行建模,能推理未来状态变化并采取行动。例如自动驾驶汽车。 目标导向型智能体(Goalbased Agents):具有明确目标,能根据目标评估行动方案并选择最优行动。例如机器人导航系统。 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动。例如金融交易智能体。 学习型智能体(Learning Agents):能够通过与环境交互不断改进性能,学习模型、行为策略和目标函数。例如强化学习智能体。 从产品角度思考 Agent 设计: Agent 可以是一个历史新闻探索向导,身份为历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析。为使角色更生动,可设计简短背景故事。 写好角色个性包括:编写背景故事明确起源、经历和动机;定义性格特点和说话方式风格;设计对话风格;明确核心功能和附加功能。
2024-11-05
AI Agent 规划是什么,怎么使用
AI Agent 规划是一个复杂但关键的概念,主要包括以下方面: 自行规划任务执行的工作流路径,适用于简单或线性流程的运行。例如,先识别男孩的姿势,再利用相关模型合成新的女孩图像,接着使用特定模型处理,最后进行语音合成输出。 包含子目标分解、反思与改进。子目标分解将大型任务分解为较小可管理的子目标,以处理复杂任务。反思与改进则可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。 规划通常涉及五种主要方法: 任务分解:将复杂任务分解为简单子任务以简化问题,如 CoT(2022)、ReAct(2022)、HuggingGPT(2023)等。 多计划选择:生成多个备选计划并通过搜索算法选择最优计划执行,如 ToT(2023)、GoT(2023)、LLMMCTS(2023)。 外部模块辅助规划:引入外部规划器来提升规划过程,解决效率和可行性问题,如 LLM+P(2023)、LLMDP(2023)、DRRN(2015)。 反思与细化:通过反思和细化提高规划能力,纠正错误,如 Reflexion(2023)、CRITIC(2023)、SelfRefine(2023)。 记忆增强规划:利用额外记忆模块增强规划能力,存储有价值的信息,如 REMEMBER(2023)、MemoryBank(2023)。 在使用方面,AI Agent 的规划可以帮助其更高效、准确地完成任务,例如在多角色协作的场景中,不同角色的 Agent 相互协作,根据需求共同开发一个应用或者复杂程序。同时,OpenAI 的研究主管 Lilian Weng 提出了“Agent = LLM + 规划 + 记忆 + 工具使用”的基础架构,其中大模型 LLM 扮演了 Agent 的“大脑”。
2024-11-05
你觉得AGI是什么
AGI 即通用人工智能(Artificial General Intelligence),是指具有人类水平的智能和理解能力的人工智能系统。它能够完成任何聪明人类所能完成的智力任务,适用于不同的领域,同时拥有某种形式的意识或自我意识。 目前,像 GPT3 及其半步后继者 GPT3.5(在 2023 年 3 月升级为 GPT4 之前,它驱动了现在著名的 ChatGPT)在某种程度上是朝着 AGI 迈出的巨大一步。但需要注意的是,强人工智能目前还只是一个理论概念,还没有任何 AI 系统能达到这种通用智能水平。 对于“智能”的定义较为模糊,阿兰·图灵提出了名为“图灵测试”的方法,该方法将某一计算机系统和真人进行比较,若人类评审员在文本对话中无法区分真人和计算机系统,那么这个计算机系统就会被认为是“智能”的。
2024-11-18
使用AGI写作
以下是关于使用 AGI 写作的相关内容: 利用 AI 打造爆款公众号文章: AI 生产文章的关键在于提供清晰且具指导性的提示词。基础提示词能生成基础文章,更详细和具创意的提示词能提升文章质量,如“请根据我们收集的关于 OpenAI 回应马斯克言论的资讯,创作一篇既深入又易于理解的科技资讯文章。文章应该有一个吸引人的标题,开头部分要概述事件的背景和重要性,主体部分详细分析 OpenAI 的回应内容及其可能产生的影响,结尾处提出一些引人深思的问题或观点。”AI 生成的文章可能需要微调以符合预期和公众号风格,通常不到十分钟就能完成内容产出。 OpenAI 通用人工智能(AGI)的计划被揭露: 一家公司正在建造强大的 AI,它具备多种能力且不断获得新能力,工程师们在讨论其意义及可能带来的影响,包括工作过时、道德义务等。 通往 AGI 之路的相关教程: 1. (入门级,网速好时一小时能搞定) 2. 3. 作者 Allen 准备调整加强写作能力训练的工作流,先在飞书上发布初稿获取反馈再拆分细化。
2024-11-15
WAY TO AGI中AGI是什么意思?
AGI 指通用人工智能,也叫强人工智能。通常在其出现时会是奇点科技大爆炸的时刻,科技将推动文明呈指数级增长。虽然通往通用人工智能的道路可能还漫长,但它已如海风般逐渐临近。例如科幻作家刘慈欣所说“未来已来,像盛夏的大雨,在我们还不及撑开伞时就扑面而来”(很多人早就失业了)。
2024-11-15
AGI是什么意思?
AGI 即通用人工智能(Artificial General Intelligence),指能够像人类一样思考、学习和执行多种任务的人工智能系统。它可以做任何人类可以做的事。 Deepmind 的研究团队在去年十一月发表的论文《Levels of AGI》中,给 AGI 的定义提出了六个原则,其中最重要的一点是“关注能力,而非过程”,即应关注 AGI 能完成什么,而非它如何完成任务。AGI 的定义应包括多个级别,每个级别都有明确的度量标准和基准。 还有一个常见且较合理和可验证的定义:AGI 是一种自主系统,在大多数具有经济价值的工作中超越了人类的能力。例如 Sam Altman 常说的,用自动化来贡献 GDP。Andrej Karpathy 今年初在其博客上发表的《Selfdriving as a case study for AGI》(虽很快删除),全文用自动化的交通服务来类比 AGI 和它的经济价值。
2024-11-13
如何可以快速的学习Agi
以下是关于快速学习 AGI 的一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 鉴于人工智能依赖的神经网络基础,专家 AI 可能通过元学习(或学会学习)比我们预期的更快地获得知识,并带着我们人类一同进步。AI 的性质让我们可以做一些我们无法对人做的事情,即将他们一部分一部分地拆解,并研究每一个小部分。通过构建系统以深入探索专家 AI 的内部工作机制,我们将创造一个学习的飞轮。最终,专家 AI 可能超越领域专家的角色,成为下一代专家——无论是人类还是 AI——的教师。
2024-11-13
主流大厂目前的agi 进展
目前主流大厂在 AGI 方面的进展情况如下: 2023 年之前,国内 AI 行业自认为与美国差距不大,但 ChatGPT 和 GPT4 的出现打破了这种认知,OpenAI 直接拉开了 2 年的技术差距。 2023 年上半年,国内大厂纷纷囤卡招人,研究类 GPT 架构,或成立创业公司,试图创造国产 AGI。但下半年发现不容易后,纷纷转向“垂直应用”“商业化”,不再提 AGI。 国内最领先的模型水平大概在准 ChatGPT3.5 的水平,和 GPT4 还有不小差距。 百度和阿里在大厂中比较高调,百度的“文心 4.0”是当前国内能力较好的模型之一,即将发布的阿里的“通义千问”也备受关注。 大厂们在人才、GPU、数据和资金储备方面具备冲击 AGI 的条件,但实际效果尚无明确亮点,且受内部短期考核压力影响,多数力量用于卷新产品和向上汇报工作,同时还背负其他业务和政治考量。
2024-11-12
如何对rag进行评估
对 RAG 进行评估可以从以下几个方面入手: 1. 使用 RAG 三角形的评估方法: 在 LangChain 中创建 RAG 对象,使用 RAGPromptTemplate 作为提示模板,指定检索系统和知识库的参数。 在 TruLens 中创建 TruChain 对象,包装 RAG 对象,指定反馈函数和应用 ID。反馈函数可使用 TruLens 提供的 f_context_relevance、f_groundness、f_answer_relevance,也可自定义。 使用 with 语句运行 RAG 对象,记录反馈数据,包括输入问题、得到的回答以及检索出的文档。 查看和分析反馈数据,根据 RAG 三角形的评估指标评价 RAG 的表现。 2. 建立评估框架将检索性能与整个 LLM 应用程序隔离开来,从以下角度评估: 模型角度(generation): 回答真实性:模型结果的真实性高低(减少模型幻觉)。 回答相关度:结果和问题的相关程度,避免南辕北辙。 检索角度(retrieval): 召回率(recall):相关信息在返回的检索内容中的包含程度,越全越好。 准确率(precision):返回的检索内容中有用信息的占比,越多越好。 3. 考虑以下评估方法和指标: 生成质量评估:常用自动评估指标(如 BLEU、ROUGE 等)、人工评估和事实验证,衡量生成文本的流畅性、准确性和相关性。 检索效果评估:包括检索的准确性、召回率和效率,其好坏直接影响生成文本的质量。 用户满意度评估:通过用户调查、用户反馈和用户交互数据了解用户对 RAG 系统的满意度和体验。 多模态评估:对于生成多模态内容的 RAG 系统,评估不同模态之间的一致性和相关性,可通过多模态评估指标实现。 实时性评估:对于需要实时更新的 RAG 任务,考虑信息更新的及时性和效率。 基准测试集:使用基准测试集进行实验和比较不同的 RAG 系统,涵盖多样化的任务和查询,以适应不同的应用场景。 评估方法和指标的选择取决于具体的任务和应用场景,综合使用多种评估方法可更全面地了解 RAG 系统的性能和效果,评估结果能指导系统的改进和优化,满足用户需求。此外,RAGAS 是一个用于 RAG 评估的知名开源库,可参考使用: 。需要注意的是,RAG 适合打造专才,不适合打造通才,且存在一定局限性,如在提供通用领域知识方面表现不佳,可能影响模型的风格或结构输出、增加 token 消耗等,部分问题需使用微调技术解决。
2024-11-13
RAG加速有什么好办法吗
以下是一些加速 RAG 的好办法: 1. 确保 LLM 以正确的格式回应:函数调用已成为确保 LLM 严格输出特定格式的相对靠谱的新方法,推荐使用此方法提升性能。可参考结构化输出文档,其中高层次的 LangChain API 展示了不同 LLM 如何调用工具和函数。 2. 使用参考样例:在实际操作中,将输入和对应输出的样例纳入其中通常大有裨益,这些样例有时比指示本身更能有效指导 LLM 处理特定情况。在提取用例文档中可找到更多细节,助您从 LLMs 中提取更好的性能。 此外,LangChain 携手 NVIDIA 为 RAG 加速带来了新的篇章: 1. 将 NVIDIA NIM 与 LangChain 结合使用:新增了支持 NIM 的集成包,安装专门的集成包后可导入所需模型,并通过示例展示如何构建应用程序,包括安装额外的包、加载数据源、初始化嵌入模型等一系列操作。 2. NVIDIA NIM 介绍:NVIDIA NIM 是一系列用户友好的微服务,旨在加速企业内部生成式 AI 的部署进程,支持广泛的 AI 模型,基于强大的推理引擎和技术构建,提供无缝的 AI 推理体验,是实现大规模、高性能生成式 AI 推理的最佳选择。其具有自托管特性,能保证数据安全;提供预构建的容器,方便选择和使用最新模型;具有可扩展性。开始使用 NIM 非常简单,在 NVIDIA API 目录中可轻松访问多种 AI 模型,NIM 是 NVIDIA AI Enterprise 的一部分,可通过相关博客获取详细指南。
2024-11-12
搜索DragGAN
DragGAN 于 2023 年 6 月 25 日开源。喜欢 AI 绘画的对它应该不陌生,期待它带来更大的惊艳。此外,相关论文中增加了微软研究院新发布的多模态 AI 助手;学习路径中增加了适合初学者的深度学习课程 fast.ai ;AI 名词增加到 80 多个,补充了很多技术名词。您可以通过以下链接获取更多详细信息:
2024-11-11
AI相关常见缩写及对应含义,包含例如prompt,rag
以下是一些 AI 相关的常见缩写及对应含义: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,可理解为与大模型说的话或下达的指令,其质量会显著影响大模型回答的质量。 Token:大模型语言体系中的最小单元。不同厂商的大模型对中文的文本切分方法不同,通常 1Token≈12 个汉字。大模型的收费计算及输入输出长度限制常以 token 为单位计量。 上下文(context):指对话聊天内容前、后的内容信息,其长度和窗口会影响大模型回答的质量。 在 AI 绘画中,常见的画面构图提示词有: 视图相关:Bottom view(底视图)、front,side,rear view(前视图、侧视图、后视图)、product view(产品视图)、extreme closeup view(极端特写视图)、look up(仰视)、firstperson view(第一人称视角)、isometric view(等距视图)、closeup view(特写视图)、high angle view(高角度视图)、microscopic view(微观)、super side angle(超博角)、thirdperson perspective(第三人称视角)、Aerial view(鸟瞰图)、twopoint perspective(两点透视)、Threepoint perspective(三点透视)、portrait(肖像)、Elevation perspective(立面透视)、ultra wide shot(超广角镜头)、headshot(爆头)、a crosssection view of)
2024-11-08
如何提高RAG应用中的准确率
以下是一些提高 RAG 应用准确率的方法: 1. 基于结构化数据来 RAG: 避免数据向量化和语义搜索的问题,直接利用原始数据和 LLM 的交互,提高准确率。因为结构化数据的特征和属性明确,能用有限标签集描述,可用标准查询语言检索,不会出现信息损失或语义不匹配的情况。 减少 LLM 的幻觉可能性,LLM 只需根据用户问题提取核心信息和条件,并形成标准查询语句,无需理解整个文档语义。 提高效率,省去数据向量化和语义搜索过程,直接使用标准查询和原始数据进行回复,且结构化数据的存储和更新更易更省空间。 增加灵活性,适应不同数据源和查询需求,只要数据是结构化的,就可用此方法进行 RAG。 2. 参考行业最佳实践,如 OpenAI 的案例: 从较低的准确率开始,尝试多种方法,标记哪些被采用到生产中。 通过尝试不同大小块的信息和嵌入不同内容部分,提升准确率。 采用 Reranking 和对不同类别问题特别处理的方法进一步提升。 结合提示工程、查询扩展等方法,最终达到较高的准确率,同时强调模型精调和 RAG 结合使用的潜力。 3. 深入了解 RAG 的基础概念: RAG 由检索器和生成器组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2024-11-08
什么是RAG的分词?
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。通过检索的模式为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾的,受限于训练数据和现有的学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 在 PDF 结构识别方面,基于规则的方法 PyPDF 存在一些问题: 1. 不擅于检测段落的边界,没有解析段落的边界,使用特殊分隔符“.\n”的启发式方法在很多情况下不成立。 2. 无法识别表格内的结构,表格的结构会被完全破坏,大语言模型无法从中辨别有意义的信息。 3. 无法识别内容的阅读顺序,按照字符存储顺序解析文档,面对复杂布局时可能导致解析结果混乱。 4. 无法识别段落和表格的边界,会错误地分割表格,并将部分与后续段落合并。 PyPDF 的解析和分块工作流程是:先将 PDF 文档中的字符序列化为没有文档结构信息的长序列,然后使用分割规则如换行符“\n”进行分割,仅当组合块的长度不超过预定限制 N 个字符时,才会合并相邻块。
2024-11-05
claude 跟chatgpt的区别在哪
Claude 与 ChatGPT 的区别主要体现在以下几个方面: 1. 所属公司及理念:Claude 是 Anthropic 的产品,Anthropic 重视 AGI 的可解释和安全可靠性,其创始团队是 OpenAI 早期的核心人员,因理念不同自立门户。Anthropic 关注的是 HH(helpful and harmless)特性,即有用且无害,他们发现单纯使用 helpful 的数据训练存在易遭攻击的问题,需要两种数据混合训练。 2. 数据搜集:Anthropic 在亚马逊机器人平台上雇佣标注员扮演两种角色提问。模拟正常用户时,设置蓝队问积极正向的问题,允许多轮对话,选出更 helpful 的回答;模拟恶意用户时,设置红队问消极负面的挑衅问题,选出没那么 harmful 的回答,一般是单轮对话。标注员要求是美国硕士以上,通过筛选保证数据质量。 3. 标注和训练:作者未事先培训标注员什么是 helpfulness 和 harmfulness 以保证数据多样性。标注员筛选看写作水平、表达能力。同时在不同平台标注不同质量和数量的数据。在 RM 和 PPO 方面,Anthropic 称 RM 为 PM(Preference Model),发现 PM 模型越大、数据越多会涨点,这与 ChatGPT 中 RM 模型不能太大的结论不同。PPO 阶段的损失函数少了 InstructGPT 的第三项 SFT 项,因为作者发现 Policy 模型和 PM 模型足够大时,不加那一项效果也会持续提升。
2024-11-15
生成式搜索和知识问答的区别
生成式搜索和知识问答存在以下区别: 生成式搜索: 采用大型语言模型技术,能更好地理解用户自然语言查询的语义,不仅仅是匹配关键词。 可以生成通顺的自然语言回答,而非简单返回网页链接和片段,结果更易于理解和使用。 能够根据用户的历史查询和偏好个性化结果,提供更贴合需求的答复。 例如 Perplexity 等 AI 搜索引擎,通过收集各种来源的信息给出答案。 但存在训练成本高、可解释性差、潜在偏差和不当内容等问题。 知识问答: 例如 RAG ,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。 原理是在基础大模型基础上引用外部数据,对搜索到的数据信息进行切片、拆分和语义理解,再根据用户提问进行检索和回答,但比基座模型更耗时。 一些知识问答系统能够支持在本地运行。 此外,为您推荐一些 AI 搜索引擎: 秘塔 AI 搜索:由秘塔科技开发,提供多模式搜索、无广告干扰、结构化展示和信息聚合等功能。 Perplexity:聊天机器人式搜索引擎,允许用户用自然语言提问,使用生成式 AI 技术收集信息并给出答案。 360AI 搜索:360 公司推出,通过 AI 分析问题,生成清晰、有理的答案,并支持增强模式和智能排序。 天工 AI 搜索:昆仑万维推出,采用生成式搜索技术,支持自然语言交互和深度追问,未来将支持多模态搜索。 Flowith:创新的 AI 交互式搜索和对话工具,基于节点式交互方式,支持多种 AI 模型和图像生成技术,有插件系统和社区功能。 Devv:面向程序员的 AI 搜索引擎,专注于提供编程、软件开发和人工智能等领域的专业建议和指导。 Phind:专为开发者设计的 AI 搜索引擎,利用大型语言模型提供相关搜索结果和动态答案,擅长处理编程和技术问题。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2024-11-14
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06
生成式AI和AIGC是什么,有什么区别和联系?
生成式 AI(Generative AI)是一种能够生成新内容的人工智能技术,比如文本、图像、音乐等。其工作原理是通过大规模的数据集训练深度神经网络模型,学习各种数据的规律和特征,实现对输入数据的分析、理解和生成。目前典型的生成式 AI 包括 OpenAI 推出的语言模型 ChatGPT、GPT4、图像模型 DALLE 以及百度推出的文心一言、阿里云推出的通义千问等。 AIGC(人工智能生成内容)指利用生成式 AI 创建的内容,如图像、视频、音频、文本和三维模型。AIGC 是一种利用人工智能技术生成各种类型内容的应用方式,在内容创作、广告、媒体等领域有着广泛的应用。 生成式 AI 和 AIGC 的联系在于:AIGC 实际上是生成式 AI 的应用结果。 区别在于:生成式 AI 侧重于技术本身,强调生成新内容的能力;AIGC 侧重于生成的内容,是生成式 AI 所产生的具体成果。
2024-11-04
开启或不开启remix按钮对vary region来说有何区别
开启 Remix 按钮对于 Midjourney Vary Region 来说具有重要作用: 放大并点击 后,能保留提示中确定画布总体构图的部分,尽量保留更多内容,若细节未显示可能是内存问题,可编辑提示删除不必要细节以腾出空间添加新细节。 可以编辑提示,将细节添加到提示中,并用至少 5 7 个词进行详细描述。 能通过将基本图像用作 sref 来加强添加部分的风格(视觉美学),右键单击放大后的图像中心,从下拉菜单中选择复制链接,将该链接添加为 sref。 而不开启 Remix 按钮可能会限制上述功能的实现。同时,在 Midjourney 的 cref 相关操作中,使用 /settings 确保处于 模式并且 Remix 设置为打开,能进行一系列面部更改等操作。若某些部分看起来怪异或破碎,如头部朝后或图像被奇怪裁剪,可尝试将 stylize 增加到 800 1000,也可将 cw 同时降低到低于 100 的值。
2024-10-29