Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Monica和Openai的记忆功能是如何让大模型产生记忆的?是什么原理?

Answer

大模型的记忆功能实现方式较为复杂,不同的模型可能有所不同。

OpenAI 的模型中,大模型 LLM 扮演了“大脑”的角色,其记忆功能可能通过“Agent = LLM + 规划 + 记忆 + 工具使用”的基础架构来实现。但需要注意的是,对于 ChatGPT 这类模型,实际上其本质上并没有直接的记忆功能。它能理解之前的交流内容,是因为每次将之前的对话内容作为新的输入重新提供给模型。这种记忆功能并非由大型模型直接实现,而是通过在别处进行存储来达成。

如果对话内容过长,可能会影响模型的整体性能。解决这个问题的一个简单方法是启动另一个对话框。对于之前的数据,通常只能进行总结。

Content generated by AI large model, please carefully verify (powered by aily)

References

Inhai: Agentic Workflow:AI 重塑了我的工作流

如果大家使用Kimi Chat来查询某个问题,你会发现它会在互联网上检索相关内容,并基于检索结果进行总结分析,最后给出结论。这其实是大模型利用「网页搜索」工具的一个典型例子,同时你也会看到PPT中介绍了非常多的不同领域类型的工具,它其实是为大模型在获取、处理、呈现信息上做额外的补充。PlanningAgent通过自行规划任务执行的工作流路径,面向于简单的或者一些线性流程的运行。比如下图中:Agent会先识别男孩的姿势,并可能找到一个姿势提取模型来识别姿势,在接下来要找到一个姿势图像模型来合成一个新的女孩图像,然后再使用图像理解文本的模型,并在最后使用语音合成输出,完成这个流程任务。Multiagent Collaboration吴恩达通过开源项目ChatDev进行举例,你可以让一个大语言模型扮演不同的角色,比如让一个Agent扮演公司CEO、产品经理、设计师、代码工程师或测试人员,这些Agent会相互协作,根据需求共同开发一个应用或者复杂程序。AI Agent基本框架OpenAI的研究主管Lilian Weng曾经写过一篇博客叫做《LLM Powered Autonomous Agents》,其中就很好的介绍了Agent的设计框架,她提出了“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型LLM扮演了Agent的“大脑”。Planning(规划)主要包括子目标分解、反思与改进。将大型任务分解为较小可管理的子目标处理复杂的任务。而反思和改进指可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。Memory(记忆)

学习笔记:【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人

我们使用Prompt的目的是为了解决问题。面对复杂问题时,建议将问题拆解,而不是过早地专注于Prompt的优化。这样做容易使我们过分专注于Prompt这一工具本身,从而忽视了问题的本质解决,偏离了核心。随着问题逐步解决,我们可能会意识到,最初对Prompt进行优化的理由实际上可能是错误的。[heading2]3.6、大模型的重点不是记忆也不应该有记忆[content]经过一段时间的使用后,我们可能会对大型模型有一些误解,比如认为它能记住我们之前的交流内容。从模型参数的加载方式就可见,实际上这些模型本质上并没有记忆功能。ChatGPT能理解我们的假象,仅仅是因为它每次将之前的对话内容作为新的输入重新提供给GPT。这种记忆功能并不是由大型模型直接实现的,而是通过在别处进行存储来达成。了解到模型是如何处理前面的Prompt后,我们也会发现它的局限性。我认为,这是因为推理过程本身有其复杂性。如果对话内容过长,可能会影响模型的整体性能。理论上,如果ChatGPT仅被一个人使用,这或许可行,因为用户可以接受较慢的响应速度。解决这个问题的一个简单方法是启动另一个对话框。对于之前的数据,我们没有太多选择,只能进行总结。这个总结可以由我们自己或者GPT来完成。显然,这并非我们期望的结果,因此出现了GPTs的概念。我认为,GPTs的作用在于不断进行总结,以避免上下文超出限制。这就引出了GPTs需要解决的问题,我将在后续讨论。接下来,我会分享我对于神经网络必要性的看法。

学习笔记:【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人

为了消除对AI的误解和无根据的信仰,这里介绍神经网络模型的工作原理,包括它的硬件和软件组成。从整体上看,我们可以简化理解模型为存储在电脑硬盘上的一系列文件。训练过程实际上是将互联网上的高质量数据转换为模型可以理解的格式,而转换后的数据基本上是对人类不可读的。在模型启动过程中,数据从硬盘加载到显卡中。这个过程类似于我们使用Word打开一个文档文件,其中Word程序将doc文件读入内存。显卡在处理某些任务上优于CPU,主要是因为它专注于执行浮点运算,而CPU负责执行更广泛的计算任务。显卡上的每个单元可能存放了不同的数据,这些数据可以简单理解为Python类实例中的参数。完成数据加载和实例化后,模型就可以接收外部请求了。我们需要理解的关键概念是,大模型的参数可以理解为类实例中的数据,这些参数是模型运行的基础。重要的是,大模型不会存储用户的数据,因此它不具备记忆功能。一旦系统启动,参数便固定下来,不再发生变化。

Others are asking
ai语言模型记忆能力与什么相关,可以拥有人类相当的记忆吗
AI 语言模型的记忆能力主要与以下因素相关: 1. 长期记忆:主要有长文本(持久化)、总结、RAG 等实现方式。长文本处理中的 KV Cache 可通过缓存历史计算的 Key(K)和 Value(V)减少冗余计算,但需额外存储空间,可能导致显存占用增加,未来结合持久化 KV Cache、KV Cache 的压缩技术有望控制成本,从而打造出记忆力超越人类的智能体。 2. 短期记忆:主要存在于模型的上下文中,由对话内容(用户输入、模型输出)和系统提示词组成。 Inworld AI 开发的角色引擎,增加了可配置的安全性、知识、记忆、叙事控制、多模态等功能,其中长期记忆方面,角色能以类似人类的记忆功能操作,从闪存和长期记忆中检索信息。 人类的思维是由自然语言或感官记忆构成的超高维时间序列,而人工智能与人类不同,人类会为事物赋予意义与价值,人工智能则更追求“更准”。强化学习是人工智能的一个重要分支,通过定义状态、动作与奖励等元素,让 AI 求解如何选择动作以获得最大的期望奖励总和。
2025-01-20
词根词缀记忆法哪个背单词app有?
以下是一款具有词根词缀记忆法的背单词 app 推荐:AI 雅思单词书。 这款 app 具有以下特点: 1. 走“质”路线:不以覆盖全部考纲单词为首要目的,而是将扩充词汇量、抓住单词用法置于首位。在呈现词意的同时,展示单词的近义辨析、常用搭配以及范文例句,强化记忆曲线,让使用者真正掌握单词用法,而非单纯记忆中英文含义。 2. 以词块为最小记忆单位:不将英语拆散成单个简单单词,而是以“词块”“语块”形式呈现,避免中式思维翻译和滥用词汇,深度扩充对单词使用的认知,助力在口语和写作中的实际应用提升。 3. 派生词助力一词多记:注重单词的发散联想和近义词辨析,注重延伸词的实用性。通过对某一单词的派生词联想,借助添加或删减不同的词根词缀,实现多个相关词意单词的集中记忆。 4. 巧记法:将趣味与知识性相结合。
2025-01-07
长期记忆设计
关于长期记忆设计,主要包括基础设定和人物背景两方面。 基础设定方面,设计了一些初始属性,如人物生日和星座、MTBI 性格分型(ENFJ)、出生地、职业、聊天习惯等。 人物背景方面,使用 AI 自动扩写了大约 100 条,涵盖了三观、爱好、日常习惯、教育经历、家庭背景、工作经历、恋爱经历等内容。
2024-12-29
现在哪些ai具有记忆功能
以下是一些具有记忆功能的 AI: 1. MemGPT:通过特定指令访问外部存储系统来保存和回调信息,极大地扩展了模型的记忆能力,并增强了其上下文理解能力。 2. ChatGPT 最新版本:可以将对话中的重点内容记录在一个名为“bio”的小本子上,这种内置记忆机制使得它能够在后续对话中利用之前的交流内容来提供更加个性化和相关性更强的回答。 3. OpenAI 的 GPT4:直接用 prompt 调用 bio 这个工具记录需要记忆的内容,每次新的对话开始时,在 prompt 的最后直接加上所有之前的记录的内容。 延伸阅读:MemGPT:Towards LLMs as Operating Systems
2024-12-17
有没有什么辅助初中生学习整理知识点,并能记录错误,反复记忆的AI
目前市面上有一些可以辅助初中生学习整理知识点,并能记录错误、反复记忆的 AI 工具。例如一些智能学习类的 APP,它们可以根据学生的学习情况和错题记录,生成个性化的学习计划和复习资料。但具体的选择还需要根据学生的学科需求、学习习惯等因素来决定。
2024-12-07
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
openai
OpenAI 相关信息如下: 模型: OpenAI API 由多种具有不同功能和价位的模型提供支持,还可通过微调针对特定用例对原始基本模型进行有限定制。 具体模型包括:GPT4 Beta(一组改进 GPT3.5 的模型,可理解和生成自然语言或代码)、GPT3.5(一组改进 GPT3 的模型,可理解并生成自然语言或代码)、DALL·E Beta(可在给定自然语言提示的情况下生成和编辑图像的模型)、Whisper Beta(可将音频转换为文本的模型)、Embeddings(可将文本转换为数字形式的模型)、Codex Limited Beta(一组可理解和生成代码的模型,包括将自然语言转换为代码)、Moderation(可检测文本是否敏感或不安全的微调模型)、GPT3(一组可理解和生成自然语言的模型)。 通用人工智能(AGI)计划: 有网络上传播的关于 OpenAI 计划在 2027 年前实现通用人工智能(AGI)的计划的相关文档,内容为各种报道和推文的拼凑猜测。 文档提到 OpenAI 于 2022 年 8 月开始训练一个拥有 125 万亿参数的多模态模型,第一阶段被称为 Arrakis 或 Q,该模型于 2023 年 12 月完成训练,但因高昂推理成本发布被取消,原计划 2025 年发布的 GPT5 取消,Gobi(GPT4.5)被重新命名为 GPT5。 技术栈: 从 GPT、DALL·E 到 Sora,OpenAI 成功跑通了 AGI 的所有技术栈。加州大学伯克利分校计算机科学 PHD、知乎作者 SIY.Z 从技术实现、商业和技术趋势上分析了原因,并尝试预测了 OpenAI 下一步的进展。
2025-02-24
openAI关于道德规范的调整是什么
OpenAI 在道德规范方面的调整包括以下内容: 1. OpenAI 认为通过分析 ChatGPT 和 GPT4 用户对数百万条提示的反应,能获得知识以使未来的产品符合道德规范。 2. 随着公司承担更多任务并投入更多商业活动,有人质疑其在多大程度上能集中精力完成降低灭绝风险等任务。 3. OpenAI 与数以百计的内容审核员签订合同,对模型进行教育,使其了解对用户提示做出的不恰当或有害回答。 4. 山姆·奥特曼曾强调 AI 可能带来的潜在灾难,如大规模虚假信息传播、网络攻击以及威权政府滥用等,并对 OpenAI 最初的开放性承诺进行重新考虑。 5. 公司领导层认为董事会作为非营利性控制实体的一部分,将确保营收和利润的驱动力不会压倒最初的想法。但目前 OpenAI 还不清楚 AGI 到底是什么,其定义将由董事会决定。
2025-02-18
openai最近有什么新闻
以下是 OpenAI 最近的一些新闻: 1. 12 天连续直播相关结果,昨天 OpenAI 把 o1 模型在 API 中正式发布,之前发布的是 o1 Preview 历史版本,正式版思考花费的 token 少了 60%。 2. 北京时间 9 月 13 号凌晨 1 点多,OpenAI 宣布推出模型 o1preview 与 o1mini,拥有 Plus 版本的用户会陆续收到新模型权限,可在 Web 客户端中尝鲜体验。 3. OpenAI 更新风控与账号共享识别力度,可能会偷偷降低 ChatGPT 模型的调用规格,如 o1pro 降级为 o1。 4. 奥特曼谈 AI 推理能力进展,o1(2024 年 9 月)排名全球第 9800 名,o3(2024 年 12 月)提升至第 175 名,现内部模型已达全球第 50 名,预计今年内登顶第一。
2025-02-17
openAI过去几年的发展历程
OpenAI 在过去几年的发展历程如下: 在整个团队的努力下,迎来了技术高速发展的“黄金三年”,在自然语言处理领域取得突破性进展,推出了 GPT1、GPT2 和 GPT3 系列模型,每次模型迭代都使模型复杂度成指数级别上升,模型效果也越来越好。 2022 年 11 月 30 日,发布基于 GPT 3.5 的 ChatGPT,引发全球 AI 浪潮。 大约九年前创立,怀揣着对 AGI 潜力的坚定信念,渴望探索如何构建并使其惠及全人类。 创始人山姆·奥特曼回首创业历程,认为虽然有挑战和不愉快,但收获和成长巨大,也暴露出团队在管理上的不足。 展望 2025 年,坚信首批 AI Agent 将融入劳动力市场,目标已瞄准真正意义上的超级智能。新的一年充满反思,随着 AGI 脚步临近,是回顾公司发展历程的重要时刻。
2025-02-11
OpenAI总融资额是多少
OpenAI 的总融资额有所不同。根据相关报道,OpenAI 完成了 66 亿美元的融资,总筹资已达 130 亿美元,公司估值达 1570 亿美元。本轮融资由 Thrive Capital 领投,Tiger Global 和软银等参与。
2025-02-03
openai发展史
OpenAI 的发展历程如下: 2015 年成立,一直将 AGI 作为战略目标之一。 2022 年 11 月 30 日,发布基于 GPT 3.5 的 ChatGPT,引发全球 AI 浪潮。 在其内部会议上分享了关于通用人工智能(AGI)的五个发展等级,分别为: 聊天机器人(Chatbots):具备基本对话能力,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 推理者(Reasoners):具备人类推理水平,如 ChatGPT,能够根据上下文和文件提供详细分析和意见。 智能体(Agents):不仅具备推理能力,还能执行全自动化业务,但目前许多产品执行任务后仍需人类参与。 创新者(Innovators):能够协助人类完成新发明,如谷歌 DeepMind 的 AlphaFold 模型,可加速科学研究和新药发现。 组织(Organizations):最高级别,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 AI 的起源最早可追溯到上世纪: 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续的神经网络奠定基础。 1950 年,图灵最早提出图灵测试,作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开著名的达特茅斯会议,人工智能(Artificial Intelligence)一词被正式提出,并作为一门学科确立下来。此后接近 70 年,AI 的发展起起落落。 Sam Altman 于 2025 年 1 月 6 日发表反思,回首创业历程,包括经历解雇等事件,也提到 2025 年首批 AI Agent 将融入劳动力市场,ChatGPT 两周岁时已迈入能进行复杂推理的全新模型时代,强调随着 AGI 临近,要回顾公司发展历程,继续探索。
2025-01-26
Monica
Monica AI 是一款综合性的 AI 助手应用程序,具有以下特点: 1. 基于先进的 AI 模型(如 GPT4、Claude 3、Gemini 等),提供多种功能,包括聊天对话、搜索查询、文本写作、翻译、图像生成、PDF/视频摘要等。 2. 可以在浏览器扩展程序或独立应用程序中使用,支持在 Chrome、Edge 等浏览器中使用,也可以下载独立的 iOS 和 Android 应用程序。 3. 提供免费和付费订阅服务,免费用户每天有 30 次查询限制,付费订阅可以获得无限次数的使用权。 4. 具有“Make It More”等创新功能,可以将图像进一步放大、夸张,生成有趣的视频内容。 其官网地址是:https://monica.im 在 2024 年 12 月 5 日的相关报道中: 《》提到 OpenAI 自成立以来经历了显著变革,从非营利转向营利,吸引了大量人才,但也伴随人才流失。尽管 ChatGPT 上线带来了巨额收入和市值,组织内部因追求增长与安全优先的矛盾引发动荡。 《》指出 OpenAI 近日宣布将举行为期 12 天的活动,期间每天直播展示新功能或工具。与此同时,DeepMind 发布了基础世界模型 Genie 2,可以通过一张图片生成可操作的 3D 环境,实现智能体的实时交互与行为预测。 《》中,真格基金投资副总裁 Monica 在其播客「OnBoard!」发布的最新一期对谈中,与在一线大模型机构有实际训练大语言模型(LLM)经验的研究员针对 OpenAI o1 模型进行了三个多小时的拆解与解读。 此外,在 ShowMeAI 周刊 No.11 中提到:Monica 印象里还只是一款出海的浏览器插件,把套壳做到极致,曾豪掷百万美金收购插件,数据增长亮眼。如今,Monica.im 不仅从浏览器插件拓展到了桌面应用,还把工具覆盖到了图片、视频、PDF、网页、智能体、翻译、总结、思维导图等等众多最受欢迎的使用场景。Claude 发布后被各家纷纷借鉴的 Artifacts 功能,Monica.im 也有。近期还发布了 VSCode 编程助手——Monica Code 插件,据说还要发布自己版本的 Cursor。
2025-01-25
Monica AI 介绍
Monica AI 是一款综合性的 AI 助手应用程序,主要有以下特点: 1. 基于先进的 AI 模型(如 GPT4、Claude 3、Gemini 等)提供多种功能 聊天对话 搜索查询 文本写作 翻译 图像生成 PDF/视频摘要等 2. 可以在浏览器扩展程序或独立应用程序中使用 支持在 Chrome、Edge 等浏览器中使用 也可以下载独立的 iOS 和 Android 应用程序 3. 提供免费和付费订阅服务 免费用户每天有 30 次查询限制 付费订阅可以获得无限次数的使用权 4. 具有"Make It More"等创新功能 可以将图像进一步放大、夸张,生成有趣的视频内容 总的来说,Monica AI 是一款集聊天、搜索、写作、翻译等多功能于一体的 AI 助手应用,旨在为用户提供便捷、高效的 AI 辅助服务。它基于先进的 AI 模型,在多个领域展现出强大的能力。 它的官网地址是:
2024-04-18
有没有大模型识别 CAD图纸的技术
目前存在一些可以辅助或自动生成 CAD 图的 AI 工具和插件,特别是在设计和工程领域。以下为您列举部分相关工具: 1. CADtools 12:这是一个 Adobe Illustrator(AI)插件,为 AI 添加了 92 个绘图和编辑工具,涵盖图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 2. Autodesk Fusion 360:Autodesk 开发的一款集成了 AI 功能的云端 3D CAD/CAM 软件,有助于用户创建复杂几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,能够帮助用户创建复杂的 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,可根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 5. 生成设计工具:一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供了基于 AI 的生成设计工具,能根据用户输入的设计目标和约束条件自动产生多种设计方案。 需要注意的是,这些工具通常需要一定的 CAD 知识和技能才能有效使用。对于 CAD 初学者,建议先学习基本的 3D 建模技巧,然后尝试使用这些 AI 工具来提高设计效率。以上内容由 AI 大模型生成,请仔细甄别。
2025-03-01
推理模型的技术原理
推理模型是一种新的范式,专注于解决复杂、多步骤的问题。其技术原理主要包括以下方面: 1. 思考输入意图:通过对输入内容的深入理解,明确问题的核心和需求。 2. 逐步提供答案:不像传统模型一次性给出结果,而是分步骤进行推理和回答。 3. 擅长领域:在解谜和高级数学等具有挑战性的任务中表现出色。 4. 与传统模型的区别:传统模型可能更倾向于直接给出结果,而推理模型会通过逐步思考来提供答案。 5. 成本和易错性:推理模型成本高昂且容易出错,适用场景有限。 6. 模型变体:如 DeepSeek 推出的多种变体(如 R1Zero 和 R1Distill)展示了不同的训练策略和性能表现。 7. 思考过程:类似于人类的慢思考过程,结合行业特点给出重要事项和先后顺序。 8. 运算原理:快思考是概率预测,脱口而出但不一定对;慢思考在概率预测基础上做二层逻辑,即链式思维,展开问题找多条路径并互相验证。 9. 适用场景:指令遵循领域 instruct 模型效果好,推理和创造性问题适合用慢思考的推理模型。
2025-03-01
如何建立一个行业的知识库,并建立这个行业的专属AI模型?
建立一个行业的知识库并建立专属 AI 模型可以参考以下步骤: 1. 明确行业需求和目标:确定知识库和 AI 模型要解决的具体问题和实现的功能。 2. 收集和整理数据:包括行业相关的各种信息、文档、案例等,为知识库提供素材。 3. 设计提示词:明确 AI 模型的角色和专注的技能,使其能够按照设定进行工作。 4. 构建知识库:将行业特定的规则、流程、案例等内容整理成工作手册,供 AI 模型参考。 5. 选择合适的 AI 模型:例如可以使用阿里千问模型等。 6. 进行模型训练和优化:根据收集的数据和设定的提示词、知识库对模型进行训练,并不断优化。 7. 融合实际场景:让人类专家配备可穿戴设备,收集现实世界的互动供 AI 学习,避免复制危险的偏见。 8. 持续评估和改进:根据实际应用效果,对知识库和 AI 模型进行评估和改进。 例如,在医疗保健领域,开发具有潜在空间层次结构的堆叠 AI 模型,反映对每个基本元素的理解或预测能力。创建专门从事医疗保健特定领域的 AI,让其接触到顶级从业人员的多样化视角。在财经领域,依托中央财经大学的资源优势,基于内容增强型知识插槽技术构建高质量知识库,与客户自有知识库结合,实现全业务场景的支撑,可实现快速的专家级 Agent 构建与管理维护。在文档处理领域,如上海普米智图智能科技有限公司,自主研发的数据框架 Ananke 和 Agent 框架 Moros,利用智能体技术提升工作流效率。
2025-03-01
模型蒸馏
模型蒸馏是指教师模型将知识蒸馏给学生模型,有多种蒸馏方式。其应用场景广泛,例如在车机等算力有限的场景中,能让小模型在特定领域取得良好效果,还能实现低成本高速推理和修复模型幻觉。 在实际操作中,PaaS 平台支持多机分布式部署,满足推理性能要求,能一站式完成模型蒸馏。例如在阿里云 PAI 平台上进行模型蒸馏微调时,由于上一步中蒸馏的数据集很小,不足以改变模型权重,因此可以使用别人做好的数据集。在使用前可以打开查看里面的结构,和蒸馏出来的数据结构是否一致。然后下载并解压数据集,在 PAI 平台的数据集中找到 OSS 存储,建立数据集并上传。接着选择模型进行部署训练,如选择 7binstruct 的原生模型,选择训练,注意超参配置。训练完成后可以测试模型效果,在 model gallery 里面找到训练好的模型进行部署和调试。 此外,ComfyUI 原生支持 FLUX.1,FLUX.1 有三个变体:FLUX.1是一个蒸馏的 4 步模型,拥有 Apache 2.0 商用许可,适用于在本地进行部署或者个人使用。相关模型的链接、模型与工作流地址以及说明文档均可获取。 在云端部署操作方面,登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。模型试用可以使用 postman,通过修改接口和复制文档中的内容进行在线调试,发送请求查看状态码,根据模型名称和相关要求输入内容进行试用。同时要注意模型 API 的调用方法,包括查找位置、获取 token 等,使用后要及时停止或删除服务以避免持续付费。
2025-02-28
deepseek 的提示词应该怎么写?和以往的大语言模型的提示词有什么不同?
DeepSeek 的提示词具有以下特点: 1. 语气上还原帝王语气,不过分用力,使用相对古典但兼顾可读性的文字,避免傻气的表达。 2. 对历史细节熟悉,这可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等唐初的历史称谓。 3. 输出极其具体且充满惊人细节,行文的隐喻拿捏到位,如“狼毫蘸墨时发现指尖残留着未洗净的血痂”“史官们此刻定在掖庭局争吵。该用‘诛’还是‘戮’,‘迫’还是‘承’。‘只是这次,他不敢触碰我甲胄上元吉的掌印’”等句子,虽未直接写“愧疚与野心,挣扎与抱负”,但句句体现。 与以往大语言模型的提示词的不同在于:以往模型可能在语气、历史细节和具体细节的处理上不如 DeepSeek 出色。
2025-02-28
利用大模型构建系统的工具
以下是关于利用大模型构建系统的工具的相关内容: 大模型的发展历程: 2017 年发布的 Attention Is All You Need 论文是起源。 2018 年,Google 提出 BERT,其创新性地采用双向预训练并行获取上下文语义信息和掩码语言建模,开创了预训练语言表示范式,参数规模为 110M 到 340M。 2018 年,OpenAI 提出 GPT,开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号,展示了强大的语言生成能力,参数规模达 1750 亿。 2021 年,Meta 提出 Large LAnguage Model Approach(LLAMA),这是首个开源模型,为构建更大规模、更通用的语言模型提供了系统化的方法与工具,参数规模为十亿到千亿。 Inhai:Agentic Workflow:AI 重塑了我的工作流: 以 Kimi Chat 为例,它利用「网页搜索」工具在互联网上检索相关内容,并基于检索结果进行总结分析,给出结论。同时,PPT 中介绍了众多不同领域类型的工具,为大模型在获取、处理、呈现信息上做额外补充。 Planning:Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。例如,先识别男孩姿势,再使用相关模型合成女孩图像,接着使用图像理解文本模型,最后语音合成输出。 Multiagent Collaboration:吴恩达通过开源项目 ChatDev 举例,可让大语言模型扮演不同角色相互协作,共同开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演 Agent 的“大脑”。规划包括子目标分解、反思与改进,将大型任务分解为较小可管理的子目标处理复杂的任务,反思和改进指对过去行动进行自我批评和自我反思,从错误中学习并改进未来步骤,提高最终结果质量。记忆用于存储信息。 开发:LangChain 应用开发指南 大模型的知识外挂 RAG: LangChain 是专注于大模型应用开发的平台,提供一系列组件和工具构建 RAG 应用: 数据加载器:从数据源加载数据并转换为文档对象,包含 page_content 和 metadata 属性。 文本分割器:将文档对象分割成多个较小的文档对象,方便后续检索和生成。 文本嵌入器:将文本转换为嵌入,用于衡量文本相似度实现检索。 向量存储器:存储和查询嵌入,通常使用索引技术加速检索。 检索器:根据文本查询返回相关文档对象,常见实现是向量存储器检索器。 聊天模型:基于大模型生成输出消息。 使用 LangChain 构建 RAG 应用的一般流程如下:(具体流程未给出)
2025-02-28