Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

现在的大模型应用都没有记忆能力需要在每次调用时输入上下文?

Answer

目前的大模型应用本质上通常没有直接的记忆功能。以 ChatGPT 为例,它能理解用户的交流内容并非因为自身具备记忆能力,而是每次将之前的对话内容作为新的输入重新处理。这种记忆功能实际上是通过在别处进行存储来实现的。

对于大模型的工作原理,在回复时是一个字一个字地推理生成内容,会根据输入的上下文来推测下一个字。但大模型的学习数据规模庞大,若每次计算都带入全量数据,算力难以承受,且仅算字的概率容易受不相干信息干扰,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。

另外,系统的内存是大模型的上下文窗口,如 Google Gemini 1.5 Pro 实验版已将其提升到一千万。但窗口越大推理越慢,且模型可能失焦降低准确度,研发团队需平衡吞吐量、速度和准确度。在模型外,操作系统的其他部件如文件系统能让模型具备无限记忆的能力,而大模型应用领域常用的方法如 RAG 能让模型用自定义数据生成结果,处理无尽的私有数据。

Content generated by AI large model, please carefully verify (powered by aily)

References

学习笔记:【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人

我们使用Prompt的目的是为了解决问题。面对复杂问题时,建议将问题拆解,而不是过早地专注于Prompt的优化。这样做容易使我们过分专注于Prompt这一工具本身,从而忽视了问题的本质解决,偏离了核心。随着问题逐步解决,我们可能会意识到,最初对Prompt进行优化的理由实际上可能是错误的。[heading2]3.6、大模型的重点不是记忆也不应该有记忆[content]经过一段时间的使用后,我们可能会对大型模型有一些误解,比如认为它能记住我们之前的交流内容。从模型参数的加载方式就可见,实际上这些模型本质上并没有记忆功能。ChatGPT能理解我们的假象,仅仅是因为它每次将之前的对话内容作为新的输入重新提供给GPT。这种记忆功能并不是由大型模型直接实现的,而是通过在别处进行存储来达成。了解到模型是如何处理前面的Prompt后,我们也会发现它的局限性。我认为,这是因为推理过程本身有其复杂性。如果对话内容过长,可能会影响模型的整体性能。理论上,如果ChatGPT仅被一个人使用,这或许可行,因为用户可以接受较慢的响应速度。解决这个问题的一个简单方法是启动另一个对话框。对于之前的数据,我们没有太多选择,只能进行总结。这个总结可以由我们自己或者GPT来完成。显然,这并非我们期望的结果,因此出现了GPTs的概念。我认为,GPTs的作用在于不断进行总结,以避免上下文超出限制。这就引出了GPTs需要解决的问题,我将在后续讨论。接下来,我会分享我对于神经网络必要性的看法。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

[title]Ranger:【AI大模型】非技术背景,一文读懂大模型(长文)[heading2]三、理解模型如何运作[heading3]1.LLm工作原理首先讲一下LLm,即large-language-model,大语言模型的工作原理。我们可以观察LLm大模型比如豆包在回复的时候,是不是一个一个字,行业里称之为流式输出的方式给你呈现内容的。为什么会这样呢?这是因为,大模型确实是在一个字一个字地去推理生成内容的。就好像我们看输入法的输入联想逻辑,输入联想,其实就是根据你输入的单个字,来推测你要输入的下个字是什么。比如我打了一个“输”字,那么我要打的下字就很有可能是“入”,当然这里就会有人问了,我要打的下个字也很有可能是“球”啊。没错,最开始的研究人员确实也识别到了这个问题。那么解法是什么呢?其实很简单,我们把上下文加入到输入里,不就能帮助模型理解下个字该是什么了吗。比如我们输入的是“我想在这个单元格中输”,那这下一个字大概率就是“入”。而我们如果输入的是“这场足球比赛中,输”,那下一个字大概率就是“球”。那么看到这里,善于思考的同学可能会发现这里存在第一,我们知道大模型的学习数据规模往往是海量的,每次的计算如果都带入全量的数据,算力上肯定是吃不消的。第二,仅去算字的概率,似乎也有问题。因为我们用于训练的文章数据等,往往是出于各种场景各种背景写就的。仅去算下个字出现的概率,容易会被各种不相干的信息干扰。是的,研究人员同样也遇到了这两个问题,而这时,两个概念的出现解决了这一难题。一个是词向量机制,一个是transformer模型中的attention自注意力机制。1)词向量机制

智变时代 / 全面理解机器智能与生成式 AI 加速的新工业革命

[title]智变时代/全面理解机器智能与生成式AI加速的新工业革命[heading1][heading3]2.2智能OS与代理系统的内存就是LMM的上下文窗口(Context Window),一次推理运算最多能接受的Tokens数量,现在Google Gemini 1.5 Pro实验版已经把这个数字提升到了一千万,一次性输入二十本书和一个小时的电影;当然这里也存在架构的限制,窗口越大推理越慢,同时模型会失焦,降低推理的准确度。但充满挑战也就意味着机会无穷,前沿模型研发团队都力争做到吞吐量、速度还有准确度的最佳平衡。在模型之外,还有操作系统的其它系统部件,例如I/O -用语音、视觉等模态感知;还有文件系统,让模型具备无限记忆的能力,毕竟模型不是数据库,它的内存是辅助计算的。这一年多以来,大模型应用领域最常用的方法就是RAG(R etrieval Augmented Generation),这是一种检索增强生成的方法,让模型用大家自定义的数据生成结果,这样就能处理无尽的私有数据,把模型当成高效的推理机器来使用。配图2.04:Emerging LLM App StackLLM和LMM是构建软件的强大的新工具,Andrej的这个类比,会让大家找到一些熟知的感觉。其实在去年五月a16z整理过一个指南《Emerging Architectures for LLM Applications》,这是一份详细的LLM应用堆栈的参考架构,里面提到了AI初创公司和大科技公司中最常见的系统、工具和设计模式。上文提到的Perplexity就是RAG的最佳应用,还有面向企业知识库的Glean也一样,以及我自己正在做的面向个人知识库的Maimo,其实所有聚焦到客户流程和需求的具体应用,或多或少都搭建在这个技术栈之上。本文不讨论技术实现方法,我将稍纵即逝的概念串接起来,帮大家整理解题思路!智能代理(AI Agent)

Others are asking
我在写小说,怎么让AI在写作时能很好地根据整体故事情节和上下文进行故事的展开和描写
以下是一些让 AI 在写作小说时能很好地根据整体故事情节和上下文进行故事展开和描写的方法: 1. 创作穿越故事的 Prompt 时,明确以下内容: 标题:“generate:小说的标题” 设置:“generate:小说的情景设置细节,包括时间段、地点和所有相关背景信息” 主角:“generate:小说主角的名字、年龄、职业,以及他们的性格和动机、简要的描述” 反派角色:“generate:小说反派角色的名字、年龄、职业,以及他们的性格和动机、简要的描述” 冲突:“generate:小说故事的主要冲突,包括主角面临的问题和涉及的利害关系” 对话:“generate:以对话的形式描述情节,揭示人物,以此提供一些提示给读者” 主题:“generate:小说中心主题,并说明如何在整个情节、角色和背景中展开” 基调:“generate:整体故事的基调,以及保持背景和人物的一致性和适当性的说明” 节奏:“generate:调节故事节奏以建立和释放紧张气氛,推进情节,创造戏剧效果的说明” 其它:“generate:任何额外的细节或对故事的要求,如特定的字数或题材限制” 根据上面的模板生成为特定题材小说填充内容,并分章节,生成小说的目录。 2. 接下来,让 AI 一段一段进行细节描写。为确保文章前后一致,先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。 3. 可以让 AI 以表格的形式输出细节描述。这样做有三个好处: 打破 AI 原本的叙事习惯,避免陈词滥调。 按编号做局部调整很容易,指哪改哪,别的内容都能够稳定保持不变。 确保内容都是具体的细节,避免整段输出时缩减导致丢光细节只有笼统介绍。 4. 把生成的表格依次复制粘贴,让 AI 照着写文章,偶尔根据需要给 AI 提供建议。 5. 注意小说大赛的要求,如最后的作品必须是 AI 直接吐出来的,不能有任何改动,不能超过规定字数等。如果需要修改,可能会遇到像 GPT4 记性不好或 Claude 改掉关键情节等问题。
2025-01-26
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
ai能够回复多少内容和它的上下文限制有关吗
AI 能够回复的内容与其上下文限制有关。 首先,上下文在英文中通常翻译为“context”,指的是对话聊天内容前、后的信息。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 不同的 AI 平台有不同的限制方式。例如,Claude 基于 token 限制上下文,简单理解就是每次和 AI 对话,所有内容字数加起来不能太多,如果超过了,它就会忘记一些内容,甚至直接提示要另起一个对话。ChatGPT 则限制会话轮数,比如在一天之中,和它会话的次数有限制,可能 4 个小时只能说 50 句话。 应对这些限制的策略包括将复杂任务分解为小模块、定期总结关键信息以及在新会话中重新引入重要上下文。
2024-11-15
回复限制和上下文限制是一样的吗
回复限制和上下文限制不是一样的概念。 上下文(英文通常翻译为 context)指对话聊天内容前、后的内容信息。使用时,上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 回复限制通常是指对模型生成回复内容的各种约束条件,例如让模型基于一个固定知识片段去回复内容,为避免模型产生幻觉而对提示词进行优化,将 Constraints 前置以更好地控制模型行为。例如在一些测试中,会出现模型在没有上下文时不回复,按照提供的知识准确回复但透露原文,知识片段大小影响回复,以及有错误知识片段时不回复等情况,这表明模型在处理用户输入时会进行一定程度的推理和验证,生成回复时会考虑多种因素,包括上下文的准确性、问题的合理性以及模型内部的约束机制等。
2024-11-15
上下文窗口和 tokens限制
以下是关于上下文窗口和 tokens 限制的详细解释: Token 方面: Token 是大模型语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型自己的语言,大模型推理生成答案后再翻译为人类能看懂的语言输出。 不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 上下文方面: 上下文指对话聊天内容前、后的内容信息,其长度和窗口都会影响大模型回答的质量。 上下文长度限制了模型一次交互中能够处理的最大 token 数量,上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 目前常见模型的 token 限制: Claude 2 100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT 16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT 4 32k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制的影响: 对一次性输入和一次对话的总体上下文长度同时生效。 当达到上限时,不是停止对话,而是遗忘最前面的对话,类似于鱼的短暂记忆。 查看 token 使用量: 对于 GPT,可以打开查看实时生成的 tokens 消耗和对应字符数量。 需注意 GPT3 和 GPT3.5/4 的 token 计算方式不同,且英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。 Token 限制对 Prompt 编写的影响:理解前面的内容后,答案应在您的脑海中有雏形。
2024-11-15
上下文的含义
上下文指对话聊天内容前、后的内容信息。在 AI 领域,其英文通常翻译为 context。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 从算法视角看,更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力有着发展历程:从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token。 从产品视角看,长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。 模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化,这一点值得观察。 在提示词中,上下文包含外部信息或额外的上下文信息,能够引导语言模型更好地响应。
2024-10-26
你调用的是哪个大模型?
我调用的是抖音集团的云雀大模型。在一些项目中,还会涉及到其他大模型的调用,比如在 COW 项目中可直接调用千问的某一模型,需更改 key 和 model 等操作,且要实名认证。此外,军师联盟 BOT 工作流中会调用月之暗面 KIMI、豆包、Minimax、通义千问和智谱清言这五个大模型。
2025-02-14
coze 能调用用户自己部署的大模型吗
Coze 可以调用用户自己部署的大模型。例如: 在 Coze 上搭建工作流框架时,可通过“个人空间工作流创建工作流”进行操作,在编辑面板中拖入对应的大模型节点来实现各项文本内容的生成。 当在 COW 中直接调用千问的某一个大模型时,需要更改 key 和 model 等配置。获取 key 可参考相关的视频和图文教程,同时需要完成实名认证,否则可能出现报错。 在使用 Coze 做智能报表助手的过程中,也涉及到对大模型的运用,如将用户问题转换为 SQL 等。
2025-02-12
我应该如何调用你的知识库并用在本地部署的deepseek上呢
要在本地部署的 DeepSeek 上调用知识库,您可以参考以下步骤: 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。配置项包括最大召回数量、最小匹配度和调用方式等。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 此外,关于 DeepSeek 的提示词相关内容: 效果对比:用 Coze 做了个小测试,大家可以对比看看,参考 。 如何使用: Step1:搜索 www.deepseek.com,点击“开始对话”。 Step2:将装有提示词的代码发给 Deepseek。 Step3:认真阅读开场白之后,正式开始对话。 设计思路: 1. 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 2. 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定)。 DeepSeekR1 提示词系统的核心原理认知包括: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 4K tokens 上下文窗口);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架方面,如果不知道如何表达,还是可以套用框架指令,包括四要素模板和格式控制语法。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧包括思维链引导和知识库调用。思维链引导中的分步标记法为请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问为在得出最终结论前,请先列举三个可能存在的认知偏差。知识库调用包括领域限定指令和文献引用模式。
2025-02-11
请提供deepSeek api的具体调用文档
以下是关于 DeepSeek 的相关信息: 网址:https://www.deepseek.com/zh 。国内能访问,网页登录方便,目前完全免费。 使用方法: 搜索 www.deepseek.com ,点击“开始对话”。 将装有提示词的代码发给 DeepSeek 。 认真阅读开场白之后,正式开始对话。 特点: 很方便,只需要获得游戏代码即可。 对于新手较为推荐。 相关工具:HiDeepSeek 能让 DeepSeek 的能力更上一层楼,它能让 AI 像人类交流时那样展示思考过程,不是要让 AI 变得更聪明,而是要让其思考过程更易理解。使用时可参考以下步骤: 用 Coze 做小测试进行效果对比。 设计思路包括将 Agent 封装成 Prompt 并储存在文件、通过提示词文件让 DeepSeek 实现联网和深度思考功能、优化输出质量等。 完整提示词版本为 v 1.3 。 特别鸣谢李继刚和 Thinking Claude 等为相关设计提供帮助和灵感。
2025-02-08
你能调用deepseekR1的API吗?
DeepSeekR1 的 API 调用步骤如下: 1. 首先到 DeepSeek 的官网(https://www.deepseek.com/),进入右上角的 API 开放平台。 2. 早期 DeepSeek 有赠送额度,如果没有赠送的余额,可以选择去充值。支持美元和人民币两种结算方式,以及各种个性化的充值方式。 3. 创建一个 API key,注意,API key 只会出现一次,请及时保存下来。 4. 接下来,下载 Cursor(https://www.cursor.com/),或者 VSCode(https://code.visualstudio.com/),只要代码编辑器可以下载插件即可。 5. 以 Cursor 作为代码编辑器为例,下载安装后,在插件页面搜索并安装 Roocline。 6. 安装完后,打开三角箭头,就可以看到 RooCline,选中并点击齿轮,进入设置,依次设置: API Provider:选择 DeepSeek。 API Key:填入已创建的 key。 模型:选择 DeepSeekreasoner。 语言偏好设置。 小贴士:记得把 HighRisk 选项都打开,这样 AI 才能帮您自动生成文件。 7. 最后做完所有不要忘记点击 Done 保存修改。 8. 在聊天框输入产品需求,输入需求后点击星星优化提示词,最终得到想要的结果。
2025-02-05
coze平台有没有DeepSeek的mml可以调用
在 Coze 平台上,DeepSeek 是可以调用的。以下是相关的具体信息: 效果对比:用 Coze 做了个小测试,大家可以对比看看,相关视频 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 这个项目是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-02-03
ai语言模型记忆能力与什么相关,可以拥有人类相当的记忆吗
AI 语言模型的记忆能力主要与以下因素相关: 1. 长期记忆:主要有长文本(持久化)、总结、RAG 等实现方式。长文本处理中的 KV Cache 可通过缓存历史计算的 Key(K)和 Value(V)减少冗余计算,但需额外存储空间,可能导致显存占用增加,未来结合持久化 KV Cache、KV Cache 的压缩技术有望控制成本,从而打造出记忆力超越人类的智能体。 2. 短期记忆:主要存在于模型的上下文中,由对话内容(用户输入、模型输出)和系统提示词组成。 Inworld AI 开发的角色引擎,增加了可配置的安全性、知识、记忆、叙事控制、多模态等功能,其中长期记忆方面,角色能以类似人类的记忆功能操作,从闪存和长期记忆中检索信息。 人类的思维是由自然语言或感官记忆构成的超高维时间序列,而人工智能与人类不同,人类会为事物赋予意义与价值,人工智能则更追求“更准”。强化学习是人工智能的一个重要分支,通过定义状态、动作与奖励等元素,让 AI 求解如何选择动作以获得最大的期望奖励总和。
2025-01-20
词根词缀记忆法哪个背单词app有?
以下是一款具有词根词缀记忆法的背单词 app 推荐:AI 雅思单词书。 这款 app 具有以下特点: 1. 走“质”路线:不以覆盖全部考纲单词为首要目的,而是将扩充词汇量、抓住单词用法置于首位。在呈现词意的同时,展示单词的近义辨析、常用搭配以及范文例句,强化记忆曲线,让使用者真正掌握单词用法,而非单纯记忆中英文含义。 2. 以词块为最小记忆单位:不将英语拆散成单个简单单词,而是以“词块”“语块”形式呈现,避免中式思维翻译和滥用词汇,深度扩充对单词使用的认知,助力在口语和写作中的实际应用提升。 3. 派生词助力一词多记:注重单词的发散联想和近义词辨析,注重延伸词的实用性。通过对某一单词的派生词联想,借助添加或删减不同的词根词缀,实现多个相关词意单词的集中记忆。 4. 巧记法:将趣味与知识性相结合。
2025-01-07
长期记忆设计
关于长期记忆设计,主要包括基础设定和人物背景两方面。 基础设定方面,设计了一些初始属性,如人物生日和星座、MTBI 性格分型(ENFJ)、出生地、职业、聊天习惯等。 人物背景方面,使用 AI 自动扩写了大约 100 条,涵盖了三观、爱好、日常习惯、教育经历、家庭背景、工作经历、恋爱经历等内容。
2024-12-29
现在哪些ai具有记忆功能
以下是一些具有记忆功能的 AI: 1. MemGPT:通过特定指令访问外部存储系统来保存和回调信息,极大地扩展了模型的记忆能力,并增强了其上下文理解能力。 2. ChatGPT 最新版本:可以将对话中的重点内容记录在一个名为“bio”的小本子上,这种内置记忆机制使得它能够在后续对话中利用之前的交流内容来提供更加个性化和相关性更强的回答。 3. OpenAI 的 GPT4:直接用 prompt 调用 bio 这个工具记录需要记忆的内容,每次新的对话开始时,在 prompt 的最后直接加上所有之前的记录的内容。 延伸阅读:MemGPT:Towards LLMs as Operating Systems
2024-12-17
有没有什么辅助初中生学习整理知识点,并能记录错误,反复记忆的AI
目前市面上有一些可以辅助初中生学习整理知识点,并能记录错误、反复记忆的 AI 工具。例如一些智能学习类的 APP,它们可以根据学生的学习情况和错题记录,生成个性化的学习计划和复习资料。但具体的选择还需要根据学生的学科需求、学习习惯等因素来决定。
2024-12-07
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入材质图片,得到经过设计后的成品衣服
目前尚未有成熟的 AI 大模型或智能体能够直接实现输入材质图片就得到经过设计后的成品衣服的功能。但在 AI 领域的不断发展中,可能会有相关的技术和模型在未来出现。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入衣服材质图片,得到经过设计后的材质成品衣服
目前尚未有专门的 AI 大模型或智能体能够直接实现您所描述的输入衣服材质图片就得到经过设计后的材质成品衣服的功能。但随着 AI 技术的不断发展,未来可能会出现相关的应用。
2025-02-16
我的工作是财务会计,经常需要对账,输入是2个Excel表格,但格式内容都有不少差异,哪些大模型或者工具可以帮我快速完成这个工作?
以下是一些可能有助于您快速完成对账工作的大模型或工具: 1. Coze 记账管家:它能通过大语言模型将用户输入的非结构化数据转变为结构化数据存入数据库。工作流程包括定义提示词,让大模型拆解并识别记账事项、发生时间、变动金额等,然后将这些数据存入数据库。 2. GLM4AllTools:可用于统计平台月度账单,例如您可以从平台导出月度明细数据,上传账单给沙盒,让模型统计账单数据和用量,还能分析账单数据波动。 3. 生成式 AI:在金融服务领域,它能帮助改进内部流程,如预测编写 Excel、SQL 和 BI 工具中的公式和查询,自动创建报告的文本、图表、图形等内容,为会计和税务团队提供税法和扣除项的可能答案,以及帮助采购和应付账款团队自动生成和调整合同、采购订单和发票等。
2025-02-15
如何输入一个话题自动化生成小红书配文
以下是关于输入一个话题自动化生成小红书配文的方法: 首先,有一个名为“小红书文案专家”的工具。 它的功能价值在于:见过多个爆款文案,只需输入一个网页链接或视频链接,就能生成对应的小红书文案,可辅助创作者生成能一键复制发布的初稿,提供创意和内容,能节约 10 倍文字内容创作时间。其应用链接为:https://www.coze.cn/s/ij5C6LWd/ 。 设计思路方面: 痛点是个人时间有限,希望有人帮忙写初稿再进行二创,最好还能生成配图。 实现思路是给自己和团队小伙伴设计工作流,让 AI 按照运营日常工作思路和流程工作。 一期产品功能包括: 可以提取任何链接中的标题和内容。 按照小红书平台文案风格重新整理内容。 加入 emoji 表情包,使文案更有活力。 为文案配图片。 二期计划功能持续优化升级中,包括增加全网搜索热点功能,提炼热点新闻或事件关键信息,结合用户想要生成的内容方向输出文案和配图。
2025-02-14
如何在coze已经建好的智能体上搭建一个用户登陆的模块,让用户在使用前输入姓名,序号
要在已建好的 Coze 智能体上搭建用户登陆模块,让用户在使用前输入姓名和序号,您可以参考以下步骤: 1. 服务器设置: 购买云服务器,推荐使用腾讯云服务器。新用户专享 28 元/年一台云服务器,若售罄可购买 82 元/年的,并选择宝塔 Linux 面板 8.1.0 腾讯云专享。 云服务器设置密码,选择暂不需要教学场景,通过远程登录的密码/密钥登录的重置密码来初始化密码,并妥善保存。 获取宝塔 Linux 地址,点击控制面板中的应用信息的管理应用,有两种获取方法。 设置宝塔的密码,登录宝塔 Linux 面板,输入相关操作并保存用户名和密码。 2. 变现模板配置: 超级管理员和普通用户的定义:超级管理员拥有管理整个系统的最高权限,普通用户没有项目配置权限和进入管理后台页的权限。 成为超级管理员:点击【成为超级管理员】按钮,进入用户注册登录页面,完成注册后获得超级管理员账户。 选择智能体配置模式,包括 Zion 默认智能体模式和您的 Coze 智能体模式。 3. API 接入微信群 Bot: 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 在“Docker”中的“项目模板”中添加,将编译好的内容复制进来,创建容器并确定。 查看运行服务,扫码接入微信,手动刷新日志,若看到 WeChat login success 则接入成功。
2025-02-14
有什么免费的AI软件,输入照片,自动修饰,生成2寸证件照的软件
目前免费且能实现输入照片自动修饰生成 2 寸证件照功能的 AI 软件相对较少。一些常见的图像处理软件可能具备部分类似功能,但可能并非完全免费或需要一定的付费升级才能达到理想效果。您可以关注一些在线图片处理平台,有时它们会提供一定程度的免费服务,但功能可能有限。
2025-02-08