Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ai语言模型记忆能力与什么相关,可以拥有人类相当的记忆吗

Answer

AI 语言模型的记忆能力主要与以下因素相关:

  1. 长期记忆:主要有长文本(持久化)、总结、RAG 等实现方式。长文本处理中的 KV Cache 可通过缓存历史计算的 Key(K)和 Value(V)减少冗余计算,但需额外存储空间,可能导致显存占用增加,未来结合持久化 KV Cache、KV Cache 的压缩技术有望控制成本,从而打造出记忆力超越人类的智能体。
  2. 短期记忆:主要存在于模型的上下文中,由对话内容(用户输入、模型输出)和系统提示词组成。

Inworld AI 开发的角色引擎,增加了可配置的安全性、知识、记忆、叙事控制、多模态等功能,其中长期记忆方面,角色能以类似人类的记忆功能操作,从闪存和长期记忆中检索信息。

人类的思维是由自然语言或感官记忆构成的超高维时间序列,而人工智能与人类不同,人类会为事物赋予意义与价值,人工智能则更追求“更准”。强化学习是人工智能的一个重要分支,通过定义状态、动作与奖励等元素,让 AI 求解如何选择动作以获得最大的期望奖励总和。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI Agent系列(二):Brain模块探究

在智能体中同样也分为长期记忆和短期记忆。长期记忆主要有长文本(持久化)、总结、RAG这三种实现方式,而短期记忆则主要存在于模型的上下文中,由对话内容(用户输入、模型输出)和系统提示词组成。图4.2.1记忆分类长文本(KV Cache):KV Cache是Transformer架构中的一个功能,它通过缓存历史计算的Key(K)和Value(V)来减少冗余计算,加速模型的推理过程。在长文本处理中,KV Cache可以显著减少重复计算,提高推理速度。它通过缓存先前计算的K和V,避免了在每一步生成中重新计算所有token的K和V。然而,KV Cache的实现并非没有挑战。它需要额外的存储空间来缓存K和V,这可能导致显存占用显著增加,尤其是在处理非常长的序列时。为了解决这一问题,研究者们提出了多种优化技术,包括MQA(Memory-Quality Attention)、GQA(Grouped Query Attention)和Page Attention等。如果未来结合持久化KV Cache、KV Cache的压缩技术,把成本可以控制在一个相对较低的水平。那么,通过记录下所有对话的历史以及AI当时的思考过程和情绪状态,我们就有可能打造出一个记忆力超越人类的智能体。这样的智能体不仅能够回忆起更多详细信息,还能在提供服务时展现出更高级别的个性化和情感连贯性。延申阅读:EFFICIENT STREAMING LANGUAGE MODELS WITH ATTENTION SINKS(https://arxiv.org/pdf/2309.17453)总结:首先是文本总结,这是一种直观且广泛使用的方法。通过将长篇聊天记录或文档简化成几句关键描述,文本总结不仅提高了信息检索的效率,还使得内容更易于理解和记忆。这种方式在商业报告、新闻摘要等多个领域都有广泛应用。

Inworld AI :可以使NPC能够自我学习和适应,具有情绪智能!

https://twitter.com/xiaohuggg/status/1687047341969440768?s=46Inworld AI是一家专注于游戏和人工智能的初创公司,他们开发了一种名为Inworld的AI角色引擎,它可以将游戏的NPC进行AI化,并可以集成到游戏当中。这个引擎超越了大语言模型,增加了可配置的安全性、知识、记忆、叙事控制、多模态等功能。它可以使NPC能够自我学习和适应,具有情绪智能!Inworld的角色引擎可以创建具有独特个性和上下文意识的角色,这些角色可以无缝地集成到实时应用中,同时内置了优化规模和性能的功能。这个引擎可以让AI非玩家角色(NPC)通过模拟人类的全方位沟通方式(包括语言、手势、表情和动作)来表达个性。为了让NPC更加人性化,他们开发了Character Brain(性格大脑)引擎这种引擎不仅仅是一个对话AI,它使AI NPC能够学习和适应,具有情绪智能的关系导航能力,具有记忆和回忆能力,并能够自主地发起目标,执行动作并遵循自己的动机。它的功能包括:1、目标和行动:使用定义的触发器、意图识别和动机来触发角色对玩家行为的反应,并在游戏中驱动交互。允许你驱动响应玩家输入的NPC行为,以一种动态和自定义的方式。2、长期记忆:角色以类似人类的记忆功能操作,从闪存和长期记忆中检索信息,创建吸引玩家回归的引人入胜的体验。2、个性:通过使用自然语言创建不同的个性。添加关于角色背景故事、动机和缺点的丰富细节,使角色生动起来。3、情绪:Inworld角色能够对与用户的互动表达情绪。情绪可以映射到动画、目标和触发器。

余欣航heaven:人类一败涂地?

丁一点头:比方说,你脑子里有“狗”这个概念,这是因为你见过几只不同的狗、听过同学们用声音描述自己家里养的狗,获取过摸狗的触觉。随后,你脑中就有了相关记忆综合得到“狗”的抽象概念。有时候,即便没有任何关于狗的感官,比如只是躺在床上闭着眼,你也会想到“狗”有关的画面或其他信息……可事实上,你脑中的各种思维也是一个由自然语言或感官记忆构成的超高维时间序列,不妨将这个时间序列记为thought。那么,这个时间序列也是感官数据通过复杂的函数运转得到的:f:(V,A,S,T,F)→thought简单地说,我们获取的所有感官信息是一个复杂的数据结构,我们的思想是一个超高维的序列数据结构。这些数据结构之间存在复杂的函数映射关系,足以表示我们从感官中获取所有信息、抽象的概念与意义,乃至全部的事物……沉默了片刻之后,我又想到了第二个问题——意义,或者说是价值。诚然,按照多模态模型与大语言模型的发展速度,恐怕人类所认识的所有事物,连同实在感官到抽象概念,很快会被人工智能超过。但是,与人工智能不同的是,人会为这些事物赋予意义与价值。通俗地说,人工智能只会追求“更准”,但是,人会追求“更好”。人不是捕捉与记录客观事物的工具,人的行为总是有目的、有意义的。丁一为我介绍了强化学习(Reinforcement Learning)的概念。强化学习是人工智能与机器学习领域中一个重要的分支。我们熟知的AlphaGo就是用强化学习技术做的。在强化学习中,我们会定义几个元素:状态(state)、动作(action)与奖励(reward),并让AI求解在各种状态下,如何选择动作,以使得自己获得最大的期望奖励总和,也可以叫做“总效用”(Utility)。

Others are asking
词根词缀记忆法哪个背单词app有?
以下是一款具有词根词缀记忆法的背单词 app 推荐:AI 雅思单词书。 这款 app 具有以下特点: 1. 走“质”路线:不以覆盖全部考纲单词为首要目的,而是将扩充词汇量、抓住单词用法置于首位。在呈现词意的同时,展示单词的近义辨析、常用搭配以及范文例句,强化记忆曲线,让使用者真正掌握单词用法,而非单纯记忆中英文含义。 2. 以词块为最小记忆单位:不将英语拆散成单个简单单词,而是以“词块”“语块”形式呈现,避免中式思维翻译和滥用词汇,深度扩充对单词使用的认知,助力在口语和写作中的实际应用提升。 3. 派生词助力一词多记:注重单词的发散联想和近义词辨析,注重延伸词的实用性。通过对某一单词的派生词联想,借助添加或删减不同的词根词缀,实现多个相关词意单词的集中记忆。 4. 巧记法:将趣味与知识性相结合。
2025-01-07
长期记忆设计
关于长期记忆设计,主要包括基础设定和人物背景两方面。 基础设定方面,设计了一些初始属性,如人物生日和星座、MTBI 性格分型(ENFJ)、出生地、职业、聊天习惯等。 人物背景方面,使用 AI 自动扩写了大约 100 条,涵盖了三观、爱好、日常习惯、教育经历、家庭背景、工作经历、恋爱经历等内容。
2024-12-29
现在哪些ai具有记忆功能
以下是一些具有记忆功能的 AI: 1. MemGPT:通过特定指令访问外部存储系统来保存和回调信息,极大地扩展了模型的记忆能力,并增强了其上下文理解能力。 2. ChatGPT 最新版本:可以将对话中的重点内容记录在一个名为“bio”的小本子上,这种内置记忆机制使得它能够在后续对话中利用之前的交流内容来提供更加个性化和相关性更强的回答。 3. OpenAI 的 GPT4:直接用 prompt 调用 bio 这个工具记录需要记忆的内容,每次新的对话开始时,在 prompt 的最后直接加上所有之前的记录的内容。 延伸阅读:MemGPT:Towards LLMs as Operating Systems
2024-12-17
有没有什么辅助初中生学习整理知识点,并能记录错误,反复记忆的AI
目前市面上有一些可以辅助初中生学习整理知识点,并能记录错误、反复记忆的 AI 工具。例如一些智能学习类的 APP,它们可以根据学生的学习情况和错题记录,生成个性化的学习计划和复习资料。但具体的选择还需要根据学生的学科需求、学习习惯等因素来决定。
2024-12-07
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
哪一款 Ai 更适合,并有记忆功能,不需要每次都发历史文章。
目前大语言模型普遍没有记忆功能,每次发送消息都需要包含历史会话内容,否则无法记住之前的对话。会话累加过多时会超出最大上下文窗口长度,同时增加计算成本。为节省资源,AI 聊天应用会自动对历史会话进行摘要,仅保留最近内容。 不过,也有一些应用程序在这方面有所尝试和改进,例如 Rewind 是一款能够提高生产力的应用程序,可以浏览、搜索并询问关于手机上任何您看到的内容。它通过捕捉您在 Safari 中阅读的内容和导入您的截屏来工作,让您可以利用人工智能的力量向 Rewind 提问关于您看到的任何问题,包括为您进行总结。Lazy 也是一款不错的工具,上下文切换不会中断您的工作流程,能随时裁剪各种内容,保存文章等,音频和视频内容还会利用 AI 提取主要内容并展示。
2024-11-18
分析英文期刊论文的ai有哪些?哪个好用?
以下是一些可用于分析英文期刊论文的 AI 工具: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,可提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化的软件,有助于复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化论文编写。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 此外,以下是一些常见的文章润色 AI 工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可生成符合要求的学术论文。 在 AI 文章排版工具方面: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. Latex:广泛用于学术论文排版的软件,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 通常是受欢迎的选择;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-22
你这里有AI报告的合集吗
以下是为您提供的部分 AI 报告合集: 2024 年 5 月 9 日: 《》 《》 《》 《》 《》 2023 年 11 月 15 日: 《》 《》 《》 2024 年 12 月 23 日: 《 Fastdata 极数:《》 《》 清华大学五道口金融学院:《》 国盛证券:《》 托尼·布莱尔全球变化研究所:《》 腾讯云:《》 您可以在以下链接查看更多详细内容:
2025-01-22
有什么ai 可以用来核实信息
以下是一些可以用来核实信息的 AI 相关内容: 马斯克认为真正的 AI 应能理解物理世界,比如能帮助人们在世界各地找到不同的事物。如果 AI 做不到像在机场找到咖啡这样的简单任务,那就不是一个好的 AI。 Twitter 上的很多数据可用于构建验证器。 存在能联网检索的 AI,例如 ChatGPT Plus 用户可开启 web browsing 功能实现联网,Perplexity 结合了问答和搜索引擎功能,Bing Copilot 可简化在线查询和浏览,还有 You.com 和 Neeva AI 等提供基于人工智能的定制搜索体验并保护用户数据私密性的搜索引擎。 但使用 AI 时需注意,它可能会“产生幻觉”生成错误内容,需要检查所有结果。AI 不会真正解释自己,给出的解释可能是编造的,且可能被不道德地用于操纵或作弊,用户要对其输出负责。
2025-01-22
输出一个“BIM工程师如何用AI辅助工作”的PPT
很抱歉,目前没有关于“BIM 工程师如何用 AI 辅助工作”的 PPT 相关内容。但 BIM 工程师可以考虑以下几个方面利用 AI 辅助工作: 1. 利用 AI 进行建筑信息模型的自动生成和优化,提高建模效率和准确性。 2. 借助 AI 对建筑性能进行模拟和预测,例如能耗分析、结构稳定性评估等。 3. 通过 AI 实现施工进度的智能规划和监控,及时发现潜在的延误风险。 4. 运用 AI 辅助进行建筑材料和设备的选型,以达到成本控制和质量提升的目的。 您可以根据以上思路来制作 PPT。
2025-01-22
如何系统地学习AI
以下是系统学习 AI 的方法: 1. 编程语言基础:从 Python、JavaScript 等编程语言开始学习,掌握编程语法、数据结构、算法等基础知识,为后续的 AI 学习奠定基础。 2. 尝试使用工具和平台:可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习基础知识: 了解 AI 的基本概念、发展历程、主要技术(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 阅读入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 4. 参与实践项目:参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注前沿动态:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 6. 选择感兴趣的模块深入学习:AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习,掌握提示词技巧。 7. 开始学习之旅: 阅读「」部分,熟悉 AI 的术语和基础概念。 在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,并有机会获得证书。 8. 实践和尝试:理论学习后进行实践,巩固知识,尝试使用各种产品做出作品。在知识库分享实践后的成果。 9. 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获得对 AI 实际应用的第一手体验。 10. 加入学习社区:如,按照新手指引入门,避免走弯路。
2025-01-22
用AI制作视频
将小说用 AI 制作成视频的流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问以下工具网址获取最新信息和使用指南: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 在 Adobe Firefly 的 Advanced 部分,您可以使用 Seed 选项添加种子编号(https://helpx.adobe.com/firefly/generatevideo/generatevideoclips/generatevideofaq.htmlwhatisaseed),以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。然后选择 Generate(生成)。
2025-01-22
到今天,大语言模型还会产生“幻觉”吗
截至今天,大语言模型仍会产生“幻觉”。 大语言模型偶尔会根据输入输出一些荒谬或不符合事实的内容,目前各家大语言模型在该问题上的表现都不尽如人意。产生“幻觉”的原因包括: 1. 样本存在错误(Imitative Falsehoods):如果大语言模型学习的“教材”中有错误,它也容易给出错误回答。缓解该问题的一个办法是上采样(Up Sampling)。 2. 信息过时(Outdated Factual Knowledge):以前正确的信息现在可能过时了。 此外,大语言模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。如果在其训练过程中,模型被暴露于大量知识之中,它并没有完美地记忆所见到的信息,并不十分清楚自己的知识边界,可能会尝试回答有关深奥话题的问题,并虚构听起来有道理但实际不正确的内容。 在构建应用程序时,可以使用一些技术来避免这种情况,例如要求模型先从文本中找到相关引文,然后使用引文回答问题,并将答案追溯回源文件,这通常有助于减少“幻觉”的发生。
2025-01-22
本地部署大模型
以下是关于本地部署大模型的详细步骤: 1. 部署大语言模型: 下载并安装 Ollama: 根据电脑系统,从 https://ollama.com/download 下载 Ollama。 下载完成后,双击打开,点击“Install”。 安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型(若设备充足可下载更大模型): Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,选择“终端”应用程序。 复制相关命令行,粘贴进入并回车,等待自动下载完成。 2. ComfyUI ollama 本地大模型部署: 先下载 ollama 安装,安装完成后可在电脑桌面右下角或隐藏图标中找到。 下载对应的模型,选择模型并复制对应的命令。 打开命令行界面,输入对应的模型获取命令,等待下载完成。 模型下载后会保存到 D:\\ollama\\blobs 。 进行 docker 安装,安装会下载一些文件,安装后更改目录,不要放在 C 盘。 进行 Open webui 安装,输入相关命令,安装成功后回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 3. 错误解决: 端口占用问题,在 Windows 上可能出现,运行相关两条命令可解决。 4. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/ 此外,还有一篇思路来源于视频号博主黄益贺的相关内容,作者按照其视频进行了实操并附加了一些关于 RAG 的额外知识。文中提到读完本文可以学习到如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 软件搭建完全本地化的数据库等内容。虽然大多数人不需要自己部署大模型,但期望通过本文的指导能够折腾一遍,从而做到知其然且知其所以然。
2025-01-22
大模型评分
大模型评分通常会根据不同的赛事或评估体系有所差异。 在金融行业的大模型挑战赛中,评测任务形式为给定一组参考文档和问题,要求模型按指定格式生成答案。赛事主办方会根据选手提供的回答与参考答案对比,并根据关键字段命中情况进行评分。评分公式涉及关键词命中总次数、关键词总数、小题数和得分等参数。例如在示例问题中,根据每个小题的回答正确情况计算得分,完全正确得满分 1 分,部分正确则根据命中比例计算得分。 在其他的大模型评估方面: FlagEval(天秤)大模型评测体系及开放平台,旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。地址:https://github.com/FlagOpen/FlagEval 。 CEval 构造了一个覆盖多个学科的中文知识和推理型测试集,并给出了当前主流中文 LLM 的评测结果。地址:https://github.com/SJTULIT/ceval 。 SuperCLUElyb 是中文通用大模型匿名对战评价基准,以众包方式提供匿名、随机的对战,并发布了初步结果和基于 Elo 评级系统的排行榜。地址:https://github.com/CLUEbenchmark/SuperCLUElyb 。 斯坦福发布的大模型排行榜 AlpacaEval 支持两种模式的模型评估方式:alpaca_eval 和 alpaca_eval evaluate_from_model 。评测过程分为选择评估集并计算输出、计算 golden 输出、通过指定的自动标注器计算胜率等步骤。相对于人工标注,全自动化的 AlpacaEval 具有较低的经济成本和时间成本。
2025-01-22
有哪些能够本地部署的AI视频生成模型
以下是一些能够本地部署的 AI 视频生成模型: 1. Stable Video Diffusion 模型: 准备工作:手动下载相关内容,分别放到指定路径。 模型选择:点击下拉箭头选择不同模型版本,勾选 load Model。 视频创作:支持图生视频,图片来源可选择 Midjourney、Stable Diffusion 等生成的图片,上传到 SVD 进行视频生成,可调节左侧参数控制效果。 保存路径:生成的视频在 outputs 下。 2. LTXVideo 模型: 基于 2B 参数 DiT,能够以 768x512 分辨率生成 24 FPS 的视频,速度比观看还快。 专为 RTX 4090 等 GPU 优化,使用 bfloat16 精度,实现高效内存使用且不影响质量。 ComfyUI 现已支持该模型,用户只需下载模型文件并获取工作流即可在本地运行。 3. Sora 模型: 功能:文生视频、图生视频、视频生视频,支持多种视频定制选项,如分辨率、视频长度和视频风格;具有故事板功能,允许用户通过时间线指导视频中的多个动作;提供混音和编辑功能,包括视频混音、延伸和剪辑、创建循环视频等;还有混合功能,可将两个视频场景合并成一个新的场景。 费用和订阅套餐:对于拥有 OpenAI Plus 或 Pro 账户的用户,使用包含在现有订阅中。OpenAI Plus 订阅每月 50 次视频生成次数,OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可根据需要选择更高分辨率的视频生成,但可能会减少每月使用次数。发布初期,某些地区(如欧洲和英国)可能会有延迟。
2025-01-21
国内文生图模型
以下是关于国内文生图模型的相关信息: Recraft 模型:用 8 个月自研模型,包含处理数据的模型、标注工作、训练 OCR 模型、新构建的数据集等。Recraft 生成带有长文本图像的流程图解,但存在生成默认是外国面孔而非亚洲面孔且生成的亚洲人不太自然的情况,可能与数据集有关。只有少数公司真正从头训练模型,创建自己的模型困难且成本高,需要超强团队和资金。 模型能力方面: 文本编码器的能力是文生图模型语义理解能力的关键。一开始大部分模型使用 CLIP 作为文本编码器,但存在一些问题。新的模型纷纷优化文本编码器能力,如引入更大更强的 T5XXL 或结合多个特征,但开源模型在中文生图方面能力一般。 腾讯开源的 HunyuanDiT 是较可用的中文生图模型,但仍存在优化空间。 Kolors 是最近开源的给力文生图模型,改进全面,技术实力强。
2025-01-21
吴恩达大模型教程
以下是一些与吴恩达大模型相关的教程和资源: 面向开发者的 LLM 入门课程: 地址: 简介:一个中文版的大模型入门教程,围绕吴恩达老师的大模型系列课程展开,包括吴恩达《ChatGPT Prompt Engineering for Developers》课程中文版等。 提示工程指南: 地址: 简介:基于对大语言模型的兴趣编写的全新提示工程指南,介绍了相关论文研究等。 LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: 地址: 简介:由两位 LLM 创业者维护的 Langchain 中文文档。 LLM 九层妖塔: 地址: 简介:包含 ChatGLM 等实战与经验。 目录:吴恩达讲 Prompt https://github.com/zard1152/deepLearningAI/wiki Coze 复刻:吴恩达开源的 AI 翻译项目 复刻步骤:包括配置反思优化的提示词、结合反思优化建议再次翻译、选择输出方式等。 大语言模型分为基础 LLM 和指令微调 LLM 两类。基础 LLM 经过训练可根据文本预测下一个词,指令微调 LLM 经过训练能遵循指令,为让系统更有帮助并遵循指令,通常会使用人类反馈强化学习(RLHF)技术优化。提示的关键原则包括尽可能保证下达的指令“清晰、没有歧义”,给大模型思考的时间以及足够的时间去完成任务。
2025-01-21
ai语言模型是如何运作的
AI 语言模型的运作机制主要包括以下几个方面: 1. 对于大语言模型(LLM),如豆包在回复时是一个字一个字地推理生成内容,即流式输出。这类似于输入法的输入联想逻辑,会根据输入的单个字或上下文推测下一个字。但存在两个问题:一是全量数据计算算力吃不消,二是仅算字的概率易受不相干信息干扰。为解决这些问题,出现了词向量机制和 Transformer 模型中的 Attention 自注意力机制。 2. 大型语言模型通过大量的数据训练来学习语言的结构和模式,包括词汇、语法、句子结构以及上下文关系。当接收到输入时,会根据学习到的知识生成连贯的回答,类似于词语接龙游戏。 3. 以 Kimi Chat 为例,大模型会利用网页搜索工具,在互联网上检索相关内容,并基于检索结果进行总结分析,最后给出结论。同时,大模型还可以通过自行规划任务执行的工作流路径,如先识别男孩的姿势,再找到相关模型处理等。 4. 在多智能体协作方面,如吴恩达通过开源项目 ChatDev 举例,可让一个大语言模型扮演不同角色相互协作,共同开发应用或复杂程序。 5. OpenAI 的研究主管 Lilian Weng 提出了“Agent = LLM + 规划 + 记忆 + 工具使用”的基础架构,其中大模型 LLM 扮演了 Agent 的“大脑”。规划包括子目标分解、反思与改进,将大型任务分解为较小可管理的子目标,并对过去的行动进行自我批评和反思,以提高最终结果的质量。 需要注意的是,大模型并不拥有无限知识,其知识来源于训练过程中接触到的数据,这些数据是有限的。虽然大模型可以处理和生成大量信息,但只能回答在训练过程中见过或类似的问题,且训练后的知识库不会自动更新。
2025-01-20
请推荐AI智能体,要求是通过通用语言大模型能直接输出思维导图的
以下为为您推荐的能通过通用语言大模型直接输出思维导图的 AI 智能体: 1. 多智能体 AI 搜索引擎: 第一步,快速搜索补充参考信息,使用工具 API WebSearchPro。 第二步,用模型规划和分解子任务,通过 GLM40520 的模型分析。 第三步,用搜索智能体完成子任务,智能体 API 的调用方式可参考相关文档。智能体 ID 为 659e54b1b8006379b4b2abd6,是连接全网内容,精准搜索,快速分析并总结的智能助手。 第四步,总结子任务生成思维导图,智能体 API 的调用方式可参考相关文档。智能体 ID 为 664e0cade018d633146de0d2,能够告别整理烦恼,将任何复杂概念秒变脑图。 2. AI 智能体:企业自动化的新架构Menlo Ventures:未来的完全自主智能体可能拥有所有四个构建块,但当前的 LLM 应用程序和智能体尚未达到此水平。Menlo 确定了三种不同主要用例和应用程序进程控制自由度的智能体类型,包括决策智能体、轨道智能体和通用人工智能体。 3. AI Share Card 插件:在开发过程中,将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能。选用的是 GLM4flash,具有较长的上下文窗口、响应速度快、并发支持高、免费或低价等优点。
2025-01-20
通过通用语言大模型能直接输出思维导图的AI智能体有那些推荐
以下是为您推荐的一些通过通用语言大模型能直接输出思维导图的 AI 智能体: 1. 豆包:输入简单提示词就能创建个人 AI 智能体。 2. GLM4flash:在处理纯文本总结任务时,仅需 13B 或更小参数的模型,加上精调的提示词,就能产生很好的结果。具有较长的上下文窗口、响应速度快、并发支持高、免费或价格低等优点。 需要注意的是,AI 领域发展迅速,新的产品和服务不断涌现,您可以持续关注相关领域的最新动态以获取更多更好的选择。
2025-01-20
如何部署私有大语言模型?
部署私有大语言模型通常包括以下步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载 Ollama。下载完成后,双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/。 下载模型:如 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车。等待下载完成。 2. 部署 Google Gemma: 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26,cls 清空屏幕。 直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。完成以后就可以直接对话。 3. 关于 Ollama 的其他特点: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 支持自定义模型,可修改模型的温度参数等。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面。 总的来说,Ollama 是一个方便用户在本地运行和管理大型语言模型的框架,具有良好的可扩展性和多样的使用场景。安装完之后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序即可,在 linux 上可以通过 ollama serve 启动)。可以通过 ollama list 进行确认。
2025-01-17
语音翻译在语言输出的 有什么好用的
以下是一些好用的语音翻译相关工具和应用: Deepdub:专注于将对话翻译成任何语言,并以相同的声音发音。 Eleven Labs 推出的 Dubbing:可以将视频/音频翻译成不同的语言,同时保持原始的声音。支持十一种语言的 AI 配音功能,v2 模型目前支持 20 多种语言的语音翻译,包括印地语、葡萄牙语、西班牙语、日语、乌克兰语、波兰语或阿拉伯语。还可以检测多个说话人的声音,支持背景音分离和环境音降噪。 在音频翻译性能方面,GPT4o 在语音翻译方面创下了新的领先地位,并在 MLS 基准测试中优于 Whisperv3,显著提高了语音识别性能,尤其是对于资源匮乏的语言。
2025-01-14