Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

现在的大模型应用都没有记忆能力需要在每次调用时输入上下文?

Answer

目前的大模型应用本质上通常没有直接的记忆功能。以 ChatGPT 为例,它能理解用户的交流内容并非因为自身具备记忆能力,而是每次将之前的对话内容作为新的输入重新处理。这种记忆功能实际上是通过在别处进行存储来实现的。

对于大模型的工作原理,在回复时是一个字一个字地推理生成内容,会根据输入的上下文来推测下一个字。但大模型的学习数据规模庞大,若每次计算都带入全量数据,算力难以承受,且仅算字的概率容易受不相干信息干扰,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。

另外,系统的内存是大模型的上下文窗口,如 Google Gemini 1.5 Pro 实验版已将其提升到一千万。但窗口越大推理越慢,且模型可能失焦降低准确度,研发团队需平衡吞吐量、速度和准确度。在模型外,操作系统的其他部件如文件系统能让模型具备无限记忆的能力,而大模型应用领域常用的方法如 RAG 能让模型用自定义数据生成结果,处理无尽的私有数据。

Content generated by AI large model, please carefully verify (powered by aily)

References

学习笔记:【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人

我们使用Prompt的目的是为了解决问题。面对复杂问题时,建议将问题拆解,而不是过早地专注于Prompt的优化。这样做容易使我们过分专注于Prompt这一工具本身,从而忽视了问题的本质解决,偏离了核心。随着问题逐步解决,我们可能会意识到,最初对Prompt进行优化的理由实际上可能是错误的。[heading2]3.6、大模型的重点不是记忆也不应该有记忆[content]经过一段时间的使用后,我们可能会对大型模型有一些误解,比如认为它能记住我们之前的交流内容。从模型参数的加载方式就可见,实际上这些模型本质上并没有记忆功能。ChatGPT能理解我们的假象,仅仅是因为它每次将之前的对话内容作为新的输入重新提供给GPT。这种记忆功能并不是由大型模型直接实现的,而是通过在别处进行存储来达成。了解到模型是如何处理前面的Prompt后,我们也会发现它的局限性。我认为,这是因为推理过程本身有其复杂性。如果对话内容过长,可能会影响模型的整体性能。理论上,如果ChatGPT仅被一个人使用,这或许可行,因为用户可以接受较慢的响应速度。解决这个问题的一个简单方法是启动另一个对话框。对于之前的数据,我们没有太多选择,只能进行总结。这个总结可以由我们自己或者GPT来完成。显然,这并非我们期望的结果,因此出现了GPTs的概念。我认为,GPTs的作用在于不断进行总结,以避免上下文超出限制。这就引出了GPTs需要解决的问题,我将在后续讨论。接下来,我会分享我对于神经网络必要性的看法。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

[title]Ranger:【AI大模型】非技术背景,一文读懂大模型(长文)[heading2]三、理解模型如何运作[heading3]1.LLm工作原理首先讲一下LLm,即large-language-model,大语言模型的工作原理。我们可以观察LLm大模型比如豆包在回复的时候,是不是一个一个字,行业里称之为流式输出的方式给你呈现内容的。为什么会这样呢?这是因为,大模型确实是在一个字一个字地去推理生成内容的。就好像我们看输入法的输入联想逻辑,输入联想,其实就是根据你输入的单个字,来推测你要输入的下个字是什么。比如我打了一个“输”字,那么我要打的下字就很有可能是“入”,当然这里就会有人问了,我要打的下个字也很有可能是“球”啊。没错,最开始的研究人员确实也识别到了这个问题。那么解法是什么呢?其实很简单,我们把上下文加入到输入里,不就能帮助模型理解下个字该是什么了吗。比如我们输入的是“我想在这个单元格中输”,那这下一个字大概率就是“入”。而我们如果输入的是“这场足球比赛中,输”,那下一个字大概率就是“球”。那么看到这里,善于思考的同学可能会发现这里存在第一,我们知道大模型的学习数据规模往往是海量的,每次的计算如果都带入全量的数据,算力上肯定是吃不消的。第二,仅去算字的概率,似乎也有问题。因为我们用于训练的文章数据等,往往是出于各种场景各种背景写就的。仅去算下个字出现的概率,容易会被各种不相干的信息干扰。是的,研究人员同样也遇到了这两个问题,而这时,两个概念的出现解决了这一难题。一个是词向量机制,一个是transformer模型中的attention自注意力机制。1)词向量机制

智变时代 / 全面理解机器智能与生成式 AI 加速的新工业革命

[title]智变时代/全面理解机器智能与生成式AI加速的新工业革命[heading1][heading3]2.2智能OS与代理系统的内存就是LMM的上下文窗口(Context Window),一次推理运算最多能接受的Tokens数量,现在Google Gemini 1.5 Pro实验版已经把这个数字提升到了一千万,一次性输入二十本书和一个小时的电影;当然这里也存在架构的限制,窗口越大推理越慢,同时模型会失焦,降低推理的准确度。但充满挑战也就意味着机会无穷,前沿模型研发团队都力争做到吞吐量、速度还有准确度的最佳平衡。在模型之外,还有操作系统的其它系统部件,例如I/O -用语音、视觉等模态感知;还有文件系统,让模型具备无限记忆的能力,毕竟模型不是数据库,它的内存是辅助计算的。这一年多以来,大模型应用领域最常用的方法就是RAG(R etrieval Augmented Generation),这是一种检索增强生成的方法,让模型用大家自定义的数据生成结果,这样就能处理无尽的私有数据,把模型当成高效的推理机器来使用。配图2.04:Emerging LLM App StackLLM和LMM是构建软件的强大的新工具,Andrej的这个类比,会让大家找到一些熟知的感觉。其实在去年五月a16z整理过一个指南《Emerging Architectures for LLM Applications》,这是一份详细的LLM应用堆栈的参考架构,里面提到了AI初创公司和大科技公司中最常见的系统、工具和设计模式。上文提到的Perplexity就是RAG的最佳应用,还有面向企业知识库的Glean也一样,以及我自己正在做的面向个人知识库的Maimo,其实所有聚焦到客户流程和需求的具体应用,或多或少都搭建在这个技术栈之上。本文不讨论技术实现方法,我将稍纵即逝的概念串接起来,帮大家整理解题思路!智能代理(AI Agent)

Others are asking
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
ai能够回复多少内容和它的上下文限制有关吗
AI 能够回复的内容与其上下文限制有关。 首先,上下文在英文中通常翻译为“context”,指的是对话聊天内容前、后的信息。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 不同的 AI 平台有不同的限制方式。例如,Claude 基于 token 限制上下文,简单理解就是每次和 AI 对话,所有内容字数加起来不能太多,如果超过了,它就会忘记一些内容,甚至直接提示要另起一个对话。ChatGPT 则限制会话轮数,比如在一天之中,和它会话的次数有限制,可能 4 个小时只能说 50 句话。 应对这些限制的策略包括将复杂任务分解为小模块、定期总结关键信息以及在新会话中重新引入重要上下文。
2024-11-15
回复限制和上下文限制是一样的吗
回复限制和上下文限制不是一样的概念。 上下文(英文通常翻译为 context)指对话聊天内容前、后的内容信息。使用时,上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 回复限制通常是指对模型生成回复内容的各种约束条件,例如让模型基于一个固定知识片段去回复内容,为避免模型产生幻觉而对提示词进行优化,将 Constraints 前置以更好地控制模型行为。例如在一些测试中,会出现模型在没有上下文时不回复,按照提供的知识准确回复但透露原文,知识片段大小影响回复,以及有错误知识片段时不回复等情况,这表明模型在处理用户输入时会进行一定程度的推理和验证,生成回复时会考虑多种因素,包括上下文的准确性、问题的合理性以及模型内部的约束机制等。
2024-11-15
上下文窗口和 tokens限制
以下是关于上下文窗口和 tokens 限制的详细解释: Token 方面: Token 是大模型语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型自己的语言,大模型推理生成答案后再翻译为人类能看懂的语言输出。 不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 上下文方面: 上下文指对话聊天内容前、后的内容信息,其长度和窗口都会影响大模型回答的质量。 上下文长度限制了模型一次交互中能够处理的最大 token 数量,上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 目前常见模型的 token 限制: Claude 2 100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT 16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT 4 32k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制的影响: 对一次性输入和一次对话的总体上下文长度同时生效。 当达到上限时,不是停止对话,而是遗忘最前面的对话,类似于鱼的短暂记忆。 查看 token 使用量: 对于 GPT,可以打开查看实时生成的 tokens 消耗和对应字符数量。 需注意 GPT3 和 GPT3.5/4 的 token 计算方式不同,且英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。 Token 限制对 Prompt 编写的影响:理解前面的内容后,答案应在您的脑海中有雏形。
2024-11-15
上下文的含义
上下文指对话聊天内容前、后的内容信息。在 AI 领域,其英文通常翻译为 context。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 从算法视角看,更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力有着发展历程:从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token。 从产品视角看,长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。 模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化,这一点值得观察。 在提示词中,上下文包含外部信息或额外的上下文信息,能够引导语言模型更好地响应。
2024-10-26
微信机器人回答问题联系上下文
以下是关于微信机器人回答问题联系上下文的相关信息: 对于纯 GPT 大模型能力的微信聊天机器人搭建,有以下疑问解答方式: 1. 查阅官方文档和教程:极简未来平台、宝塔面板和 Docker 都有详细的官方文档和教程,可解决大部分问题。 2. 联系技术支持:极简未来平台提供技术支持服务,可联系其技术团队寻求帮助。 3. 加入技术社群:加入相关技术社群,向有经验的用户请教,获取问题解决方案。 4. 在线论坛和社区:在在线论坛和社区发布问题,寻求其他用户的帮助和建议。 若担心运维时间长会忘记操作步骤,可采取以下措施: 1. 制作操作手册:将每一步操作记录下来,方便日后查阅。 2. 定期操作:定期登录服务器,进行简单操作和维护,保持熟练度。 3. 视频教程:录制自己的操作视频,日后查看更直观。 4. 自动化脚本:对于常见运维任务,编写自动化脚本简化操作步骤。 DIN 提供的全程白嫖的 AI 大模型微信助手,能解答任何问题,可接入微信或群聊为用户提供自动答疑服务,还能投喂特定知识,成为客服、专业老师或知识备忘录。无需技术知识,小白也能轻松搭建,全程只需复制粘贴,可自定义知识库,满足不同需求,支持多场景应用,如客服、教育、个人知识管理等,全程免费。 张梦飞的超级微信机器人当前能力已接入,但仍有优化点需要调整,比如分段发送、收图发图、无需@等,后续会更新。若遇到问题,可添加其微信获得帮助。
2024-09-02
以豆包为例,如何通过API调用豆包大模型?
要通过 API 调用豆包大模型,以下是一些相关步骤和信息: 1. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 获取 key 的图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 2. 创建大模型问答应用: 首先可以通过创建一个百炼应用,来获取大模型的推理 API 服务,用于实现 AI 助手。 创建应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布,我们将在后面的步骤中去解决这一问题。 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 配置 FastGpt、OneAPI: 首先配置 OneAPI,还记得刚刚让您白嫖的大模型 API 吗?阿里的接口,这时要派上用场了,去阿里模型的链接里创建 ApiKey,并复制下来。然后在 OneAPI 的页面,点击【渠道】添加新渠道。添加时,类型选择阿里通义千问,名称自己取个,类型选择好后模型是会默认加进去,您不用删减,还有就把刚刚阿里那复制的 ApiKey 粘贴到秘钥里去。这样就 OK 了。后续有其他的大模型也是一样的添加方式。
2025-01-23
怎么调用qwen?
要调用 qwen ,有以下几种情况和步骤: 1. 调用百炼“应用”: 创建一个百炼应用,假设命名为“苏苏”。 在/root/chatgptonwechat/文件夹下,打开config.json文件。 更改"model":"qwen",并添加"qwen_access_key_id"、"qwen_access_key_secret"、"qwen_agent_key"、"qwen_app_id"四项配置。 配置项获取可参考视频教程: 图文教程及参考配置也有提供。 注意:需要“实名认证”后,这些key才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 2. 直接调用大模型: 百炼首页:https://bailian.console.aliyun.com/ 在/root/chatgptonwechat/文件夹下,打开config.json文件。 以调用“qwenmax”模型为例,需要更改"model",和添加"dashscope_api_key"。 获取 key 可参考视频教程: 图文教程及参考配置也有提供。 注意:需要“实名认证”后,这些key才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 3. 创建知识库应用并调用: 地址输入浏览器:http://这里替换为您宝塔左上角的那一串:3000/ 进入后,点击应用并创建,选择 qwen 模型。 创建知识库。点击知识库 选择 qwen Embedding 1 点击确认创建。 上传文件,等待处理,最后文本状态是“已就绪”。 回到刚刚创建的应用,关联上创建的知识库。 点击两个发布。之前第一个叫做保存。 点击新建,创建 key。创建后保存同时将 API 根地址最后加上/v1 也保存下来。 回到宝塔,打开【终端】 依次粘贴并回车:cd/root git clone https://github.com/zhayujie/chatgptonwechat cd chatgptonwechat/ pip install r requirements.txt pip install r requirementsoptional.txt 等待执行完成。 到“文件”菜单中去执行,点击文件 找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。
2025-01-20
国内有哪些开源ai可以调用?
国内有以下一些开源 AI 可供调用: MiniMax 推出的 Hailuo Audio HD 此外,还有一些应用于不同领域的 AI 技术和产品,如: 在游戏领域,有根据玩家需求推荐游戏道具的 AI 游戏道具推荐系统。 在天气领域,彩云天气的分时预报利用了 AI 提供精准的分时天气预报。 在医疗领域,医渡云的病历分析系统利用 AI 分析医疗病历,辅助诊断。 在会议领域,讯飞听见的会议总结功能利用 AI 自动总结会议发言内容。 在书法领域,书法临摹软件利用 AI 识别书法作品的笔画和结构,为用户提供临摹指导和评价。
2025-01-20
如何准确调用知识库的内容?
要准确调用知识库的内容,可以从以下方面进行: 维护知识库内容: 为提升召回准确率,可删除、新增或修改知识库内容。 在知识库页面,能看到已创建的知识库及每个知识库内的单元数量和创建时间等信息。单击知识库或编辑图标,可进入知识库详情页面。在详情页可进行新增内容、删除内容、更新单元内的分段、开启引用等操作。若不开启引用,即便 Bot 中使用了所属的知识库,该单元内容也不会被召回。 使用知识库: 可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点。 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 关于让 AI+知识库回答更准确的示例: 以问答机器人为例,其配置包括 AI 模型、提示词、知识库。大语言模型如同拥有无穷智慧的人,提示词是设定其角色和专注技能,知识库则是工作手册。例如设定 AI 模型为阿里千问模型,提示词角色为“美嘉”,知识库为《爱情公寓》全季剧情,让“美嘉”拥有相关“记忆”。
2025-01-18
工作流中如何调用插件
在工作流中调用插件的方式如下: 1. 触发器触发: 为 Bot 设置触发器,可选择定时触发或事件触发。 触发时执行任务的方式包括 Bot 提示词、调用插件、调用工作流。 调用插件时,需为触发器添加一个插件,触发后 Bot 会调用该插件获取返回结果并发送给用户。 一个 Bot 内的触发器最多可添加 10 个,且仅当 Bot 发布飞书时生效。 2. 在 Bot 内使用插件: 在 Bots 页面,选择指定 Bot 并进入 Bot 编排页面。 在 Bot 编排页面的插件区域,单击加号图标添加插件,或者单击自动添加图标,让大语言模型自动添加适用的插件。使用大语言模型自动添加插件后,需检查被添加的插件是否可以正常使用。 在添加插件页面,展开目标插件查看工具,然后单击添加。单击我的工具,可查看当前团队下可用的插件。 在 Bot 的人设与回复逻辑区域,定义何时使用插件,然后在预览与调试区域测试插件功能是否符合预期。 3. 在工作流中使用插件节点: 在页面顶部进入工作流页面,然后创建工作流或选择一个已创建的工作流。 在页面左侧,单击插件页签。 搜索并选择插件,然后单击加号图标。 在工作流的画布内,连接插件节点,并配置插件的输入和输出。 需要注意的是,即使是官方插件也可能存在不稳定的情况,需要自己去尝试,找到适合当前场景的插件。
2025-01-14
国内coze调用api的例子
以下是国内 Coze 调用 API 的一些例子: 1. 通过已有服务 API 创建插件: 进入 Coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 在插件的 URL 部分,填入 Ngrok 随机生成的 https 链接地址。 按照 Coze 的指引配置输出参数,测试后发布插件。 2. 手捏简单的 Bot 并接入创建的插件:创建测试 API 的 Bot,将创建的 api_1 插件接入,在 prompt 里让其调用插件。 3. 测试 AI Bot 时可能遇到的情况:Coze 国内版刚发布不久,有些官方和第三方插件的 API 调用和返回结果不太稳定,可能出现回答不完整的情况,但相信官方会尽快解决。 4. 获取 Coze 的 accessToken 和 botid: 获取 accessToken:在 Coze 界面右侧扣子 API 授权,或者打开链接 https://www.coze.cn/open/oauth/pats,添加令牌,设置名称、过期时间和权限,完成后点击确定按钮并复制下拉令牌。 获取 botid:通过工作空间获取,从“工作空间”打开一个 bot,点击商店按钮查看地址栏中的数字即为 botid。 发布为 bot api:注意在前端使用 bot 必须发布成为 API,点击发布并选择 API,等待审核通过后可按上述方法拿到 botid。 获取空间 id:进入 Coze 后,左边打开工作空间,找到 url 中的 id 并复制。
2025-01-12
ai语言模型记忆能力与什么相关,可以拥有人类相当的记忆吗
AI 语言模型的记忆能力主要与以下因素相关: 1. 长期记忆:主要有长文本(持久化)、总结、RAG 等实现方式。长文本处理中的 KV Cache 可通过缓存历史计算的 Key(K)和 Value(V)减少冗余计算,但需额外存储空间,可能导致显存占用增加,未来结合持久化 KV Cache、KV Cache 的压缩技术有望控制成本,从而打造出记忆力超越人类的智能体。 2. 短期记忆:主要存在于模型的上下文中,由对话内容(用户输入、模型输出)和系统提示词组成。 Inworld AI 开发的角色引擎,增加了可配置的安全性、知识、记忆、叙事控制、多模态等功能,其中长期记忆方面,角色能以类似人类的记忆功能操作,从闪存和长期记忆中检索信息。 人类的思维是由自然语言或感官记忆构成的超高维时间序列,而人工智能与人类不同,人类会为事物赋予意义与价值,人工智能则更追求“更准”。强化学习是人工智能的一个重要分支,通过定义状态、动作与奖励等元素,让 AI 求解如何选择动作以获得最大的期望奖励总和。
2025-01-20
词根词缀记忆法哪个背单词app有?
以下是一款具有词根词缀记忆法的背单词 app 推荐:AI 雅思单词书。 这款 app 具有以下特点: 1. 走“质”路线:不以覆盖全部考纲单词为首要目的,而是将扩充词汇量、抓住单词用法置于首位。在呈现词意的同时,展示单词的近义辨析、常用搭配以及范文例句,强化记忆曲线,让使用者真正掌握单词用法,而非单纯记忆中英文含义。 2. 以词块为最小记忆单位:不将英语拆散成单个简单单词,而是以“词块”“语块”形式呈现,避免中式思维翻译和滥用词汇,深度扩充对单词使用的认知,助力在口语和写作中的实际应用提升。 3. 派生词助力一词多记:注重单词的发散联想和近义词辨析,注重延伸词的实用性。通过对某一单词的派生词联想,借助添加或删减不同的词根词缀,实现多个相关词意单词的集中记忆。 4. 巧记法:将趣味与知识性相结合。
2025-01-07
长期记忆设计
关于长期记忆设计,主要包括基础设定和人物背景两方面。 基础设定方面,设计了一些初始属性,如人物生日和星座、MTBI 性格分型(ENFJ)、出生地、职业、聊天习惯等。 人物背景方面,使用 AI 自动扩写了大约 100 条,涵盖了三观、爱好、日常习惯、教育经历、家庭背景、工作经历、恋爱经历等内容。
2024-12-29
现在哪些ai具有记忆功能
以下是一些具有记忆功能的 AI: 1. MemGPT:通过特定指令访问外部存储系统来保存和回调信息,极大地扩展了模型的记忆能力,并增强了其上下文理解能力。 2. ChatGPT 最新版本:可以将对话中的重点内容记录在一个名为“bio”的小本子上,这种内置记忆机制使得它能够在后续对话中利用之前的交流内容来提供更加个性化和相关性更强的回答。 3. OpenAI 的 GPT4:直接用 prompt 调用 bio 这个工具记录需要记忆的内容,每次新的对话开始时,在 prompt 的最后直接加上所有之前的记录的内容。 延伸阅读:MemGPT:Towards LLMs as Operating Systems
2024-12-17
有没有什么辅助初中生学习整理知识点,并能记录错误,反复记忆的AI
目前市面上有一些可以辅助初中生学习整理知识点,并能记录错误、反复记忆的 AI 工具。例如一些智能学习类的 APP,它们可以根据学生的学习情况和错题记录,生成个性化的学习计划和复习资料。但具体的选择还需要根据学生的学科需求、学习习惯等因素来决定。
2024-12-07
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
如何再coze中引导用户输入内容
在 Coze 中引导用户输入内容可以参考以下步骤: 1. 设计一个吐槽心灵鸡汤的应用,允许用户输入心灵鸡汤类内容,AI 生成对应的反心灵鸡汤,并展示在前端页面。应用体验地址为:https://www.coze.cn/s/iDGHwn8t/ 核心操作流程: 用户在页面输入指定文本。 用户在页面点击【开喝】按钮。 Coze 后台调用工作流生成对应内容。 工作流生成的内容展示在前端界面内。 核心前端设计: 用户界面提供一个元素 A(Coze 中称作组件),让用户输入内容。 用户界面提供一个按钮 A,让用户点击后调用工作流。 用户界面提供一个元素 B,向用户展示工作流的结果。 核心业务逻辑: 读取元素 A 的用户输入。 将用户输入传递给 AI 大模型。 AI 大模型按照提示词设定生成指定内容。 在元素 B 展示 AI 大模型生成的内容。基于上述业务逻辑,只需要设计一个简单的工作流即可。该工作流由【开始】节点(用户输入)、【大模型】节点(AI 生成内容)、【结束】节点构成(内容输出)。 2. 搭建选择内容推荐流,用于根据用户输入的“想看 xxx 内容”,在稍后读存储地址(飞书多维表格)中,检索现有的收藏记录,匹配符合阅读兴趣的内容记录。 新建工作流「recommendRead」,根据弹窗要求自定义工作流信息。 工作流全局流程设置: 4.1 开始节点:收到用户输入的“想看 xxx 内容”这类指令就开始流程,不需要额外配置(至于如何判断哪些用户输入是在交代想阅读的内容主题,交由外层 bot 的大模型判断)。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点。 4.3 插件节点:添加「飞书多维表格search_records」插件,只需要设置{{app_token}}参数,在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回需要的查询结果,也可以通过额外的配置定向检索状态为“仅记录(即未读状态)”的收藏记录。 4.4 大模型节点:为了处理的稳定性,这一步采用批处理,对检索出来的收藏记录逐个进行相关性匹配。可以继续优化提示词以提升匹配的精准度。
2025-01-09
在coze工作流中,怎样利用下一个代码节点合并前两个代码节点的输出,并以正确的格式输入传入飞书多维表格插件节点
在 Coze 工作流中利用下一个代码节点合并前两个代码节点的输出并以正确格式传入飞书多维表格插件节点的步骤如下: 1. 搭建整理入库工作流: 3.4 大模型节点:提取稍后读元数据。根据对稍后读阅读清单的元数据期望设置大模型节点,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000 以完整解析长内容网页,用户提示词需相应设置。 3.5 日期转时间戳。后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需使用「日期转时间戳time_stamp_13」插件进行格式转化,具体设置明确。 3.6 大模型节点:把稍后读元数据转换为飞书多维表格插件可用的格式。飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以要将之前得到的元数据数组进行格式转换,大模型节点配置及用户提示词需相应设置。 3.7 插件节点:将元数据写入飞书表格。添加「飞书多维表格add_records」插件,设置{{app_token}}与{{records}}参数。 3.8 结束节点:返回入库结果。「飞书多维表格add_records」插件会返回入库结果,直接引用该信息用于通知外层 bot 工作流的入库是否成功。 2. 搭建选择内容推荐流: 4.1 开始节点:输入想阅读的内容主题。收到用户输入的“想看 xxx 内容”这类指令开始流程,无需额外配置。 4.2 变量节点:引入 bot 变量中保存的飞书多维表格地址,添加变量节点并设置。 4.3 插件节点:从飞书多维表格查询收藏记录。添加「飞书多维表格search_records」插件,设置{{app_token}}参数,并在{{app_token}}引用变量节点的{{app_token}},输出结果的{{items}}里会返回需要的查询结果,也可在这一步定向检索未读状态的收藏记录。 4.4 大模型节点:匹配相关内容。为处理稳定采用批处理,对检索出来的收藏记录逐个进行相关性匹配,用户提示词可优化以提升匹配精准度。 搭到这里,别忘了对整个工作流进行测试。
2025-01-09
可否输入一次同时使用多个人工智能
360 于 8 月 1 日发布了集合国内 16 家主流模型的 AI 助手。用户可以通过其桌面客户端和浏览器等多个入口随时唤起,支持在同一问题上同时使用多个模型进行解答。当用户不确定选择哪个模型时,AI 助手会通过意图识别自动选择模型。您可以体验一下:https://bot.360.com
2025-01-05
🚀接着上期SOP+AI:打造职场高效能人士的秘密武器的分享,今天继续聊聊SOP+AI的应用,🎯今天的主题是“怎样利用AI节约10倍内容创作时间?”📚最近跟团队有开始运营小红书账号,就想着先给自己打造点顺手的工具,于是乎「小红书文案专家」就出生啦~🎉[heading1]一、先介绍下我们小Bot[content]🛺BOT名称:小红书文案专家功能价值:见过多个爆款文案长啥样,只需输入一个网页链接或视频链接,就能生成对应的小红书文案,可以辅助创作者生成可以一键复制发布的初稿,提供创意和内容,1
以下是关于“SOP+AI”的相关内容: 怎样利用 AI 节约 10 倍内容创作时间? 最近团队开始运营小红书账号,于是打造了“小红书文案专家”。 BOT 名称:小红书文案专家 功能价值:见过多个爆款文案,输入网页或视频链接就能生成对应的小红书文案,辅助创作者生成可一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人写初稿并生成配图。 实现思路:为自己和团队设计工作流,让 AI 按运营思路和流程工作。 一期产品功能: 1. 提取任何链接中的标题和内容。 2. 按小红书平台文案风格重新整理内容。 3. 加入 emoji 表情包,使文案更有活力。 4. 为文案配图片。 二期计划功能:持续优化升级,增加全网搜索热点功能,提炼热点新闻或事件关键信息,结合用户想要生成的内容方向输出文案和配图。 SOP+AI:打造职场高效能人士的秘密武器 案例分享:X 公司客服团队引入 SOP 和 AI 助手后,工作效率显著提升。引入 SOP 前,客服工作流程混乱,效率低下,客户满意度不高。引入 SOP 标准化操作后,效率提高。进一步引入 AI 助手,自动回复常见问题、处理简单请求,减少客服工作量,还能及时发现问题帮助优化。结果客服团队工作效率提升 30%以上,客户满意度显著提高。SOP 能提升效率、减少失误、促进协作,借助 AI 助手,SOP 制定和优化更高效智能。
2024-12-20
推荐一个生成bpm系统产品原型图的ai工具,可以实现文字输入,甄别分析后直接生成原型图,并且导入Figma或者Axure可以二次编辑
以下是为您推荐的可生成 BPM 系统产品原型图、用于产品原型设计或绘制示意图的 AI 工具: 1. 即时设计:https://js.design/ 这是一款可在线使用的「专业 UI 设计工具」,为设计师提供更加本土化的功能和服务,相较于其他传统设计工具,更注重云端文件管理、团队协作,并将设计工具与更多平台整合,一站搞定全流程工作。 2. V0.dev:https://v0.dev/ Vercel Labs 推出的 AI 生成式用户界面系统。每个人都能通过文本或图像生成代码化的用户界面。它基于 Shadcn UI 和 Tailwind CSS 生成复制粘贴友好的 React 代码。 3. Wix:https://wix.com/ Wix 是一款用户友好的 AI 工具,可让您在没有任何编码知识的情况下轻松创建和自定义自己的网站,提供广泛的模板和设计供您选择,以及移动优化和集成电子商务功能等功能。Wix 建站工具通过拖放编辑、优秀模板和 250 多种 app,能帮助不同领域的用户创建所有种类的网站。 4. Dora:https://www.dora.run/ 使用 Dora AI,可以通过一个 prompt,借助 AI 3D 动画,生成强大网站。支持文字转网站,生成式 3D 互动,高级 AI 动画。 5. UIzard:是一个利用 AI 技术生成用户界面的工具,它可以根据设计师提供的信息快速生成 UI 设计。 6. Figma:是一个基于云的设计工具,它提供了自动布局和组件库,可以帮助团队快速协作并迭代产品设计。Figma 的社区也开发了一些 AI 插件,用于增强设计流程。 7. Sketch:是另一款流行的矢量图形设计工具,它提供了插件系统,其中一些插件利用 AI 技术来辅助设计工作,例如自动生成设计元素等。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-17
推荐一个生成bpm系统产品原型图的so工具,可以实现文字输入,甄别分析后直接生成原型图,并且导入Figma或者Axure)
目前暂时没有完全符合您需求的直接生成 BPM 系统产品原型图,并能实现文字输入、甄别分析后直接生成原型图且导入 Figma 或者 Axure 的工具。但您可以关注一些相关领域的发展动态,比如 Mockplus、Adobe XD 等工具,它们在原型设计方面具有一定的优势,或许未来会推出满足您需求的功能。
2024-12-17