Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

对于大语言模型使用的未来趋势,是闭源云端还是开源本地部署,作为普通用户是否有必要了解本地部署知识,并且是否有必要自己搭建agent以及rag?

Answer

大语言模型的未来趋势在闭源云端和开源本地部署方面存在多种可能性。

对于开源本地部署,以下是一些相关信息:

  • Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有以下特点:
    • 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。
    • 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。
    • 提供模型库,用户可从中下载不同模型,以满足不同需求和硬件条件,模型库可通过 https://ollama.com/library 查找。
    • 支持用户自定义模型,例如修改温度参数调整创造性和连贯性,或设置特定系统消息。
    • 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。
    • 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。
    • 安装可访问 https://ollama.com/download/ 。
  • 可以通过一些教程学习如何本地部署大模型以及搭建个人知识库,例如了解如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 搭建完全本地化的数据库等。

同时,采用开源或国内企业提供的 13B 级模型本地部署在内部系统中,虽需投入算力,但有其价值。智能客服的大量优质大客户可能会选择自己搭建智能客服平台,并结合大模型企业提供的技术服务,基于大模型搭建 LangChain、RAG 框架,实现 RPA 自动流程。

对于普通用户是否有必要了解本地部署知识以及是否有必要自己搭建 agent 以及 rag,这取决于个人需求和兴趣。如果您希望更深入了解大模型的工作原理和运行机制,或者有特定的个性化需求,那么了解和尝试本地部署可能是有意义的。但如果只是一般的使用需求,可能无需深入了解和自行搭建。

Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

1.支持多种大型语言模型:Ollama支持包括通义千问、Llama 2、Mistral和Gemma等在内的多种大型语言模型,这些模型可用于不同的应用场景。2.易于使用:Ollama旨在使用户能够轻松地在本地环境中启动和运行大模型,适用于macOS、Windows和Linux系统,同时支持cpu和gpu。3.模型库:Ollama提供了一个模型库,用户可以从中下载不同的模型。这些模型有不同的参数和大小,以满足不同的需求和硬件条件。Ollama支持的模型库可以通过https://ollama.com/library进行查找。4.自定义模型:用户可以通过简单的步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。5.API和集成:Ollama还提供了REST API,用于运行和管理模型,以及与其他应用程序的集成选项。6.社区贡献:Ollama社区贡献丰富,包括多种集成插件和界面,如Web和桌面应用、Telegram机器人、Obsidian插件等。7.总的来说,Ollama是一个为了方便用户在本地运行和管理大型语言模型而设计的框架,具有良好的可扩展性和多样的使用场景。后面在捏Bot的过程中需要使用Ollama,我们需要先安装,访问以下链接进行下载安装。https://ollama.com/download/

手把手教你本地部署大模型以及搭建个人知识库

大家好,我是大圣,一个致力使用AI工具将自己打造为超级个体的程序员。目前沉浸于AI Agent研究中无法自拔今天给大家分享的是手把手教你如何部署本地大模型以及搭建个人知识库读完本文,你会学习到如何使用Ollama一键部署本地大模型通过搭建本地的聊天工具,了解ChatGPT的信息是如何流转的RAG的概念以及所用到的一些核心技术如何通过AnythingLLM这款软件搭建完全本地化的数据库虽然我们大多数人不需要在自己部署大模型,但是我期望在本文的帮助下,能够带你手把手折腾一遍。这样在使用任何软件的时候,可以做到知其然,知其所以然。

观点:LLM落地思考

同时,采用开源或者国内智谱、文心、百川等企业提供的13B级模型,本地部署在自己的内部系统中,虽然需要投入算力,但是算力的价值已经是世界共识了,而大模型的故事可以给企业带来很多资本届的好处,因此,智能客服的大量优质大客户,会纷纷选择自己搭建智能客服平台。再结合大模型企业提供的技术服务,基于大模型搭建LangChain、RAG框架,在智能客服上还可以继续实现RPA自动流程。可以大胆的这样讲,智能客服的企业外部需求,终究是要被证伪了。4、智能客服的结局我个人的看法,痛定思痛,转化为LLM技术支持方,专注发力LLM的工程化应用方向,去为企业提供更好的LLM本地部署和工程化,走IBM的企业服务道路,可能是最好的选择了。毕竟各行各业+LLM的转型还是有很大的市场的,大厂也难以全部吃掉,甚至可以作为大厂大模型的工程分包商。(类似于华为卖企业网关、路由器等网络设备,需要在各个城市找一些工程承包商来根据每个企业办公室的具体格局布网施工一个逻辑)或者就是转变赛道了,向智齿客服,他们借助这两年国内出海的兴起,以及中东、东南亚需求的旺盛,提供在这个方向的智能客服国内服务,这可能还是有一些需求的。

Others are asking
deepseek 部署文档
以下是关于 DeepSeek 部署的相关内容: 《在 Azure AI Foundry 部署 DeepSeek 大模型全指南》(https://waytoagi.feishu.cn/wiki/RKK5wNbeHifSAXkAR5hcGYQmn5f?renamingWikiNode=false):来自社区伙伴 Hua 的投稿,手把手指导您在微软 Azure AI Foundry 平台上完成 DeepSeek R1(671B)模型的完整部署流程,包含环境准备、资源管理、模型测试及 API 调用说明。 《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》(https://waytoagi.feishu.cn/wiki/RZE9wP94tiEO6bkU5cTcyecHnnb) 《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》(https://waytoagi.feishu.cn/wiki/HzHSwEwtCiBmWrkRm6fc0J0Qneh):所有用户享 50 万免费 Tokens+API 半价优惠!火山引擎上线了 DeepSeek 系列模型!咱们社区小伙伴做了零基础部署教程,5 分钟打造专属满血版 AI 助手,速度飞快!使用方法中附上了飞书多维表格的接入方法、Coze 的接入使用方法、网页插件的使用方法。 《刚刚,DeepSeek 官方发布 R1 模型推荐设置,这才是正确用法》(https://mp.weixin.qq.com/s/RA1mhAyQOoXD5XOULAGgbQ):DeepSeek 官方下场推荐了部署 DeepSeekR1 的设置。DeepSeek 强调官方部署的版本跟开源版本模型完全一致。
2025-02-18
为什么要本地部署
以下是关于本地部署的一些原因: 对于只有特定设备(如只有一台 Mac 设备),且想灵活学习 AI 生图的情况,本地部署是最方便的。 如果电脑是 M 芯片的 Mac 电脑(Intel 芯片出图速度慢不建议)或者 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署,强烈建议在配有 N 卡的 Windows 电脑上进行。 本地部署测试方便,还可以尝试让其控制家里的智能家居。
2025-02-17
Deepseek老是“服务器繁忙,请稍后再试”,没有办法提升,比如说把模型部署到本地等等
如果您遇到 DeepSeek 老是显示“服务器繁忙,请稍后再试”且无法提升的情况,可以尝试以下方法: 1. 使用网页聊天: 安装插件:使用 Chrome 或 Microsoft Edge 浏览器,点击此链接安装浏览器插件并添加到拓展程序:https://chromewebstore.google.com/detail/pageassist%E6%9C%AC%E5%9C%B0ai%E6%A8%A1%E5%9E%8B%E7%9A%84web/jfgfiigpkhlkbnfnbobbkinehhfdhndo 打开聊天页面:点击右上角的插件列表,找到 Page Assist 插件,点击打开。 配置“DeepSeekR1”模型的 API key:基础 URL 为 https://ark.cnbeijing.volces.com/api/v3,填好之后点击保存,关掉提醒弹窗。 添加“DeepSeekR1”模型。 2. 完成上述操作后,您就可以愉快玩耍,无需担心“服务器繁忙”了,打开联网功能,还可以支持联网搜索使用 R1。
2025-02-15
comfyui的本地部署安装,GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G*2
以下是关于 ComfyUI 本地部署安装的相关信息: ComfyUI 相比 WebUI,配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。如果电脑能顺畅清晰地玩 3A 游戏,那玩 webui 和 ComfyUI 也没问题。配置上不封顶,根据自己的需求和预算来即可。 安装地址:https://github.com/comfyanonymous/ComfyUI 。可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComFYUI_windows_portable\\ComfyUI\\models\\vae 。 已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 您的电脑配置为 GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G2,可能需要注意内存方面可能不太满足推荐配置,可能会影响运行效果。
2025-02-13
deepseek怎么在电脑本地部署使用
以下是在电脑本地部署 DeepSeek 的步骤: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。开通成功的样子如相关说明。 2. 开通 DeepSeek R1 大模型:访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze 。打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。添加在线推理模型,添加后在扣子开发平台才能使用,具体添加过程包括添加模型和完成接入。 3. 创建智能体:点击创建,先完成一个智能体的创建。 此外,您还可以参考以下文章获取更详细的教程:《张梦飞:15 分钟零基础个人电脑部署 DeepSeekR1(无限制版)智能助手保姆级教程!》(https://waytoagi.feishu.cn/wiki/NjKBw4n8HikDZBkeyB4cDQVynKh?useEs6=0 ),该教程适用于完全没有 AI 部署经验的小白,详细介绍了如何在个人电脑上快速搭建 DeepSeekR1 本地 AI 助手,包括 Ollama 安装、DeepSeekR1 模型下载与运行、显存检查、终端指令操作、网页插件使用等环节,并提供了清晰的步骤图,确保 15 分钟内完成部署。
2025-02-12
coze 能调用用户自己部署的大模型吗
Coze 可以调用用户自己部署的大模型。例如: 在 Coze 上搭建工作流框架时,可通过“个人空间工作流创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
2025-02-12
有必要考取有关AI的证书吗
考取有关 AI 的证书是否有必要,取决于个人的具体情况和目标。以下为您提供一些参考: 从经验来看,像 MQ 老师这样的知乎 AI 讲师,考取了国家工信部、微软、讯飞三个初级人工智能工程师证书。如果您在教育行业工作,拥有相关证书可能会有一定的帮助。 对于新手学习 AI,如果您希望通过在线教育平台(如 Coursera、edX、Udacity)上的课程系统学习,这些课程可能会提供获得证书的机会,这有助于证明您的学习成果。 然而,证书并不是衡量您在 AI 领域能力的唯一标准。更重要的是您对 AI 知识的掌握和实践能力。建议您: 了解 AI 基本概念,熟悉术语和基础概念,包括主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 选择感兴趣的模块深入学习,比如图像、音乐、视频等,并掌握提示词的技巧。 进行实践和尝试,使用各种产品做出作品。 体验 AI 产品,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 总之,是否考取证书要综合考虑您的职业规划、学习需求和个人兴趣等因素。
2025-02-18
有必要报学习AI的课程吗
学习 AI 是否有必要报课程取决于您的具体情况和需求。 如果您想深入学习 AI 中的美学概念和操作,可以考虑报野菩萨课程。对于入门学习,有多种途径可供选择。比如,可以先从国内模型工具入手,因为其不花钱。学习过程可以从提示词开始,国内的大语言模型工具好用,并且在与各类模型对话中提示词具有重要性,结构化提示词还有优势。您还可以参考温达、李弘毅老师的课程等。 另外,若想进阶学习,可能需要考虑高阶方向。在学习过程中,对于账户投资,初期可先从国内模型工具入手。同时,若想深入学习某些内容,可查看官方 cookbook,创作者将内容做成可视化形式也会发到群里。入门经典必读和面向开发者的文章也值得阅读,欢迎上传相关 PPT 用作参考。 总之,是否报课程要综合考虑您的学习目标、预算和现有基础等因素。
2024-12-23
AI绘画这么厉害了,那儿童还有必要学习素描课吗
即便 AI 绘画很厉害,儿童仍有必要学习素描课。手绘素描笔记有助于建立突触连接,将信息从短期记忆转化为长期记忆,让人成为更好的概念思考者。例如,在科学观察中,学生通过手绘能更好地学会观察,这个过程不可被替代。就学习而言,掌握新技能时应先进行动手、动脑、技术最小化的学习,不应一开始就依赖 AI。比如在记笔记时,手写比打字能让学生记住更多信息。此外,在一些课程设计中,如离谱村的 AI 课,通过巧妙的环节设置和老师的引导,能让孩子更好地学习和发挥想象。
2024-12-20
小七姐的提示词课程,双证班、第一期、第二期,内容有何不同,我有必要全部学习吗?
小七姐的提示词课程包括双证班的第一期和第二期,以下是课程内容的介绍: 自由学习时间包含 22 节视频课,授课形式为视频课+知识星球作业+社群答疑。 提示词基础:包括“Hello,大模型”“提示词基础方法”“开始编写你的第一条提示词”“按需求设计和迭代提示词”等课程。 元能力:涵盖“AI+学习能力”“AI+逻辑思维”“AI+表达能力”等课程。 提示词实践:包含“需求分析”“结构框架”“反馈迭代”“结构化提示词”“思维链”等课程。 提示词工具化:包括“工作流”“提示词封装”“GPTs 基础教程”“GPTs 实战案例”等课程。 2024 更新:包括“GPT 新版本指南”“GPTs 基础教程”“GPTs 设置方法”“GPTs 实战案例”“提示词学习综述”“知识库场景”“知识库工具”“知识库有效语句”“知识库方法论”“知识库思维方式”“优秀提示词拆解”“提示词编写常见误区”等内容。 社群答疑:学员有问题可在学习群随时提问,老师和助教会详尽答疑,针对复杂问题,小七姐会录制短视频帮助理解。 对于是否有必要全部学习,取决于您的具体需求和基础。如果您是初学者,建议系统学习以打下扎实基础;如果您已有一定基础,可以根据自身薄弱环节有针对性地选择学习。
2024-10-10
人工智能训练师证书有必要报班吗
抱歉,您提供的内容与“人工智能训练师证书是否有必要报班”这一问题无关。关于此问题,需要综合多方面因素来考虑。报班学习有其优势,比如能获得系统的课程安排、专业的指导、实践机会以及与同行交流的环境。但也并非绝对必要,如果您具备较强的自学能力、能够获取优质的学习资源并且有明确的学习计划,通过自学也有可能达到获取证书的要求。最终是否报班取决于您的个人情况和学习偏好。
2024-09-23
AI视频技术攻关的必要性
AI 视频技术攻关具有多方面的必要性。 首先,随着视频内容在互联网和各种应用中的广泛传播,对视频质量、处理速度和智能化程度的要求不断提高。通过技术攻关,可以提升视频的分辨率、帧率和色彩准确性,为用户带来更优质的视觉体验。 其次,AI 视频技术在安防监控、医疗诊断、自动驾驶等领域具有关键作用。攻关相关技术能够提高对目标的识别和跟踪精度,及时发现异常情况,保障公共安全和医疗准确性,提升自动驾驶的安全性。 再者,在娱乐产业中,如虚拟现实(VR)、增强现实(AR)等领域,AI 视频技术的突破可以创造更具沉浸感和互动性的内容,推动产业的创新和发展。 最后,从技术发展的角度来看,AI 视频技术的攻关有助于推动人工智能技术的整体进步,促进相关算法和模型的优化,为其他领域的应用提供借鉴和支持。
2024-08-26
有什么提升 RAG 知识库问答的好的 prompt
以下是一些提升 RAG 知识库问答的好的 prompt 相关内容: RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,在使用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用 RAG 后也有更好结果,说明 RAG 是可行方案,能增强知识密集型任务中语言模型的输出,基于检索器的方法常与 ChatGPT 等流行 LLM 结合提高能力和事实一致性,可在 LangChain 文档中找到相关例子。 RAG 能显著提高大模型在处理私域知识或垂直领域问答时的效果。其流程包括:上传文档(支持多种格式,会转换为 Markdown 格式)、文本切割、文本向量化(存入向量数据库)、问句向量化、语义检索匹配(匹配出与问句向量最相似的 top k 个)、提交 Prompt 至 LLM、生成回答返回给用户。RAG 研究范式分为基础 RAG、高级 RAG 和模块化 RAG。 高级 RAG 特点:支持多模态数据处理,增强对话性,具备自适应检索策略,能进行知识融合,扩展了基础 RAG 功能,解决复杂任务局限,在广泛应用中表现出色,推动自然语言处理和人工智能发展。 模块化 RAG 侧重于提供更高定制性和灵活性,将系统拆分成多个独立模块或组件,每个组件负责特定功能,便于根据不同需求灵活组合和定制。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源(如维基百科),这些文档作为上下文和原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应解决方案,包括原论文中的 7 个和额外发现的 5 个。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化,是因为 LLM 存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在 RAG 的应用中,可以将其抽象为 5 个过程:文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-02-17
agent和copilot的区别
Copilot 和 Agent 主要有以下区别: 1. 核心功能: Copilot 更像是辅助驾驶员,依赖人类指导和提示完成任务,功能局限于给定框架内。 Agent 像初级主驾驶,具有更高自主性和决策能力,能根据目标自主规划处理流程并自我迭代调整。 2. 流程决策: Copilot 处理流程依赖人类确定,是静态的,参与更多在局部环节。 Agent 解决问题流程由 AI 自主确定,是动态的,能自行规划任务步骤并根据反馈调整流程。 3. 应用范围: Copilot 主要用于处理简单、特定任务,作为工具或助手存在,需要人类引导监督。 Agent 能够处理复杂、大型任务,并在 LLM 薄弱阶段使用工具或 API 增强。 4. 开发重点: Copilot 主要依赖 LLM 性能,开发重点在于 Prompt Engineering。 Agent 同样依赖 LLM 性能,开发重点在于 Flow Engineering,把外围流程和框架系统化。 此外,Agent 具备“决策权”,可自主处理问题,无需确认;Copilot 需要人类确认才能执行任务。业界普遍认为,Copilot 更适合各行业现有软件大厂,而 AI Agent 为创业公司提供了探索空间。
2025-02-18
AI agent 是什么?
AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:我们可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 总结下来我们需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态) 2. Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体) 3. Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈 这三个 Agent 每隔一段时间运行一次(默认 3 分钟),运行时会分析期间的历史对话,变更人物关系(亲密度,了解度等),变更反感度,如果超标则拉黑用户,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。 此外,心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,从低层次的感知和反应到高层次的规划和决策,每个层次由多个 Agent 负责。每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务,如视觉处理、语言理解、运动控制等。智能不是集中在单一的核心处理单元,而是通过多个相互关联的 Agent 共同实现。这种分布式智能能够提高系统的灵活性和鲁棒性,应对复杂和多变的环境。同时,在《心灵社会》中,还存在专家 Agent(拥有特定领域知识和技能,负责处理复杂的任务和解决特定问题)、管理 Agent(协调和控制其他 Agent 的活动,确保整体系统协调一致地运行)、学习 Agent(通过经验和交互,不断调整和优化自身行为,提高系统在不断变化环境中的适应能力)。 从达特茅斯会议开始讨论人工智能(Artificial Intelligence),到马文·明斯基引入“Agent”概念,往后,我们都将其称之为 AI Agent。
2025-02-17
有关agent的介绍
AI Agent 是当前 AI 领域中较为热门的概念,被认为是大模型未来的主要发展方向之一。 从原理上看,中间的“智能体”通常是 LLM(语言模型)或大模型。为其增加的四个能力分别是工具、记忆、行动和规划。目前行业中主要使用 langchain 框架,将 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。例如,给大模型提供长期记忆,相当于给予一个数据库工具让其记录重要信息;规划和行动则是在大模型的 prompt 层进行逻辑设计,如将目标拆解并输出不同的固定格式 action 指令给工具。 从产品角度,Agent 可以有不同的设定。比如是一个历史新闻探索向导,身份为历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析,还可以为其设计背景故事使其更加生动。 在人工智能领域,Agent 智能代理是一种能够感知环境并根据感知信息做出决策以实现特定目标的系统,能够自动执行任务,如搜索信息、监控系统状态或与用户交互。
2025-02-16
AIagent的发展方向
AI Agent 被认为是大模型未来的主要发展方向之一,其发展具有以下特点和阶段: 从原理上看,中间的“智能体”通常是 LLM 或大模型,为其增加了工具、记忆、行动、规划四个能力。目前行业里主要用到的是 langchain 框架,它通过代码或 prompt 的形式将 LLM 与 LLM 之间以及 LLM 与工具之间进行串接。 在人工智能的发展历程中,AI Agent 并非一蹴而就,其发展可分为几个阶段,并受到符号主义、连接主义、行为主义的影响。在人工智能的黎明时期,符号人工智能作为主导范式,以对符号逻辑的依赖著称,代表之作是基于知识的专家系统。其特点是基于逻辑和规则系统,使用符号来表示知识,通过符号操作进行推理。优点是推理过程明确、可解释性强,缺点是知识获取困难、缺乏常识、难以处理模糊性。时间为 20 世纪 50 70 年代。 近期出现的各类 AI 搜索引擎不断颠覆传统搜索引擎,如 perplexity.ai、metaso、360 搜索、ThinkAny 等。AI Agent 在辅助高效处理信息和简便信息表达方面表现出色,例如智能摘要能辅助快速筛选信息,自然语言描述可生成美观可用的图片。在工作流方面,每个人应根据自身情况找到适合的工具,如产品经理可使用 AI 进行用户画像、竞品调研、设计产品测试用例、绘制产品功能流程图等。关于 AI Agent 的未来,曾被认为异想天开的想法都可能成为现实,技术迭代会不断向前。
2025-02-15
AI Agent 或者 工作流, 落地的场景
以下是 AI Agent 或工作流的一些落地场景: Long horizon task 长期任务执行:Agent 能像称职的项目经理,分解大任务为小步骤,保持目标导向并适时调整策略。 多模态理解:Agent 能同时理解文字、图像、声音等多种交流方式,全方位感知世界和任务上下文。 记忆与行动:通过先进的记忆机制,Agent 能积累经验,记住对话、操作步骤和效果,行动更精准高效。 自适应学习:从每次交互中吸取经验,不断完善策略,实现“智慧成长”。 在技术层面,有两条技术路线:以自主决策为核心的 LLM 控制流和以工作流(Workflow)编排为重点的工具集成系统。Anthropic 提出的 MCP(Model Context Protocol)提供了通用接口协议,将外部资源抽象为“上下文提供者”,便于模型与外部世界交互。 工作流驱动的 Agent 搭建,简单情况分为 3 个步骤:规划,包括制定任务关键方法、总结目标与执行形式、分解子任务等;实施,在 Coze 上搭建框架并分步构建和测试功能;完善,全面评估并优化效果。 典型例子如利用 Kimi Chat 进行网页搜索和总结分析。 包括 Agent 自行规划任务执行的工作流路径,适用于简单或线性流程。 多 Agent 协作,如吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色共同开发应用或复杂程序。 OpenAI 研究主管 Lilian Weng 提出 Agent 的基础架构为“Agent=LLM+规划+记忆+工具使用”,规划包括子目标分解、反思与改进。
2025-02-15
腾讯agent开发
AppAgent 是由腾讯开发的一种基于大型语言模型(LLM)的多模态 Agent 框架。 其主要特点和功能包括: 多模态代理:能够处理和理解多种类型的信息(如文本、图像、触控操作等)。 直观交互:通过模仿人类的直观动作(如点击和滑动屏幕)来与手机应用程序交互,能够在手机上执行各种任务,例如在社交媒体上发帖、帮用户撰写和发送邮件、使用地图、在线购物,甚至进行复杂的图像编辑等。 对于之后模仿数据的反利用也有不错的应用场景,例如互联网或 AI 或涉及到原型+UE 的工作都可以在基于模仿数据的基础上进行反推,进而让设计出的产品原型和 UE 交互更优解。 AppAgent 在 50 个任务上进行了广泛测试,涵盖了 10 种不同的应用程序。该项目由腾讯和德州大学达拉斯分校的研究团开发。 相关链接: 官方网站:https://appagentofficial.github.io 相关报道:https://x.com/xiaohuggg/status/1738083914193965528?s=20
2025-02-14