Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ai的底层逻辑

Answer

AI 的底层逻辑主要涉及以下几个方面:

  1. 大模型的底层原理:
    • 大语言模型依靠概率计算逐字接龙的方式工作,平时看到的逐字输出并非特效,而是其真实的工作方式。
    • 大模型参数规模的增加,如从 GPT-1 的 1.5 亿到 GPT-3.5 的 1750 亿,实现了量变到质变的突破,从而“涌现”出智能。这种“涌现”结构在人类的进化和个体学习成长中也存在。
    • 预训练是大模型获取知识的方式,其需要大量时间和算力资源。在没有外部帮助的情况下,大模型的知识信息可能不完备且滞后。
    • GPT 是生成式预训练转换器模型(Generative Pre-trained Transformer),生成式指大模型根据已有输入不断计算生成下一个字词,直至计算出[end of text]概率最大时结束输出。
  2. 必须理解的核心概念:
    • LLM 是 Large language model 的缩写,即大语言模型。
    • Prompt 是提示词,即输入给大模型的文本内容,其质量会显著影响回答质量。
    • Token 是大模型语言体系中的最小单元,不同厂商对中文的切分方法不同,通常 1Token≈1-2 个汉字,大模型的收费和输入输出长度限制以 token 为单位。
    • 上下文指对话聊天内容的前后信息,其长度和窗口会影响大模型回答质量。
Content generated by AI large model, please carefully verify (powered by aily)

References

走入AI的世界

没错,这就是大语言模型真实工作的样子,平时使用大模型看到他逐字输出的样子,并不是程序员做的酷炫“打字机”效果,而是大模型就是如此这般工作的。按照我们的常识认知,这种依靠概率计算逐字接龙的方法,恐怕连生成一个通顺的句子都难,更别提生成高质量有意义的回答了,为什么这种方法会有效呢?答案就是大,GPT-1的参数规模是1.5亿,GPT-2 Medium的参数规模是3.5亿,到GPT-3.5时,他的参数规模来到了惊人的1750亿,我们常说大力出奇迹,参数规模的增加,使得大模型实现了量变到质变的突破,最终“涌现”出了这种惊人的“智能”。反观人类自身,无论是长周期看物种的进化,还是短周期看一个个体的学习成长历程,都有这样“涌现”的结构,就像当我打下这些文字的时候,我的大脑也在神奇的进行着快速的语言组织,这个边打字边思考边输出的过程,又何尝不是一场接龙游戏呢?图15文字接龙游戏预训练(Pre-trained):正如我们前面五点朴素洞察提到的,人类是不知道自己没见过/学过的知识的,大模型也是如此,大模型“脑袋”里存储的知识,都是预先学习好的,这个预先学习并把对知识理解存储记忆在“脑袋”里的过程,就称为预训练。预训练是需要花费相当多的时间和算力资源的,当你了解并意识到预训练机制的时候,你就会明白,在没有其他外部帮助(例如使用浏览器插件,RAG等)的情况下,大模型所知道的知识信息总是不完备的,滞后的(非实时)。

走入AI的世界

总结一下,以上这段讨论,你要重点记住这句话:模仿人类大脑结构的AI,也自然而然的表现出人的特征,很多我们应对大模型回答不及预期的解决之道,也和人与人交流沟通的技巧如出一辙,息息相关。关于这一点,我们会在后续各种真实案例的分析拆解中再来讨论。GPT的全称是生成式预训练转换器模型(Generative Pre-trained Transformer),他的名字里就蕴含了大量重要的信息,接下来我们来聊聊GPT这三个字母的分别含义:图14 Generative Pre-trained Transformer生成式(Generative):所谓生成式,说的是大模型是根据已有的输入为基础,不断计算生成下一个字词(token),从而逐字完成回答的过程。这一过程,像极了一个单字接龙的游戏,图15中给出了一个简单的例子做为说明:1.一开始我们给了大模型一些提示词Prompt,为了简化,在图中这个提示词只有一个单词:How;2.接下来,大模型会结合自己“大脑中存储的知识”进行计算推理,算出how后面接are这个单词的概率最大,于是输出are接在how后面;3.在已知how are的情况下,大模型再次推理计算,算出how are后面接you这个单词概率最大,于是输出you接在how are后面;4.不断重复上面步骤,每次大模型会多输出一个词(token),新的输出会和过去的输入一并成为新的输入,用来计算下一个词;5.直到计算出下一个词是[end of text]的概率最大,于是结束输出,回答结束([end of text]是一个特殊的token,用来终止对话输出)

走入AI的世界

首先我们给出一些常见缩写和专业词汇的“人话”解释,它们十分基础,但理解他们至关重要。为了讨论更加聚焦,接下来的内容将主要围绕大语言模型为主进行展开(对于其他模态的大模型,我们暂且放放):LLM:Large language model的缩写,即大语言模型,前面百团大战中的各类大模型,说的都是大语言模型(极其应用)Prompt:中文译作提示词,就是我们输入给大模型的文本内容,可以理解为你和大模型说的话,下达的指令。提示词的质量好坏,会显著影响大模型回答的质量,很多时候如果你觉得大模型回答的太差了,AI味儿太浓了,很可能是你的提示词写的不够好,换言之,不是AI不行,而是你不行😌Token:就像人类有着不同的语言,大模型也有着自己的语言体系,如图9,我们发送文本给大模型时,大模型会先把文本转换为他自己的语言,并推理生成答案,而后再翻译成我们看得懂的语言输出给我们。正如人类不同语言都有最小的字词单元(汉语的字/词,英语的字母/单词),大模型语言体系中的最小单元就称为Token。这种人类语言到大模型语言的翻译规则,也是人类定义的,以中文为例,由于不同厂商的大模型采用了不同的文本切分方法,因此一个Token对应的汉字数量也会有所不同,但在通常情况下,1Token≈1-2个汉字。请注意,大模型的收费计算方法,以及对输入输出长度的限制,都是以token为单位计量的。上下文:英文通常翻译为context,指对话聊天内容前、后的内容信息。使用时,上下文长度和上下文窗口都会影响AI大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大token数量,而上下文窗口限制了模型在生成每个新token时实际参考的前面内容的范围(关于这一点,你需要看完3.2中关于GPT的讨论,方能更好理解)

Others are asking
我应该怎样开始学习AI
以下是新手开始学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 6. 对于中学生来说: 从编程语言入手学习,如 Python、JavaScript 等,学习编程语法、数据结构、算法等基础知识。 尝试使用 AI 工具和平台,如 ChatGPT、Midjourney 等,探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 学习 AI 基础知识,包括基本概念、发展历程、主要技术及在各领域的应用案例。 参与 AI 相关的实践项目,如参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题。 关注 AI 发展的前沿动态,关注权威媒体和学者,思考 AI 技术对未来社会的影响。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-01-30
国内AI工具及相关网站有哪些?
以下是国内部分 AI 工具及相关网站: |排行|产品名|分类| |||| |15|墨刀 AI|设计工具| |16|无限画|图像生成| |17|autoDL 云服务租用|Agent| |18|百度 Chat|AI ChatBots| |19|360AI 搜索(没接 GA)|搜索| |20|AIbot ai 工具集|导航网站| |21|创客贴 AI|设计工具| |22|MasterGo|设计工具| |23|美图设计室|图像编辑| |24|魔搭社区阿里达摩院|AI 训练模型| |25|即时 AI 设计|设计工具| |26|Boardmix 博思 AI 白板|PPT| |27|百度飞桨 AI Studio|AI 学习| |28|字节扣子|| |29|提示工程指南|Prompts| |30|toolsdar|导航网站| |31|autoDL 云服务租用|| |32|AIbot ai 工具集|导航网站| |33|同花顺问财|金融| |34|魔搭社区阿里达摩院|AI 训练模型| |35|MasterGo|设计工具| |36|即时 AI 设计|设计工具| |37|百度 Chat|AI ChatBots| |38|创客贴 AI|设计工具| |39|即梦 AI(剪映)|其他视频生成| |40|可灵 AI|其他视频生成| |41|360 快剪辑|视频编辑| |42|Dify.ai|Agent| |43|Vast(算力)|| |44|提示工程指南|Prompts| |45|站酷海洛|资源| |46|toolsdar|导航网站| |47|百度飞桨 AI Studio|AI 学习| |48|Boardmix 博思 AI 白板|PPT| |49|讯飞听见|转录| |50|帆软战略|电商| |51|帆软数据|数据分析| |52|360 苏打办公|生产力| |53|标小智 LOGO 生成|图像生成| |54|edrawsoft|思维导图| |55|彩云|通用写作| |56|虎课网免费在线视频教程|AI 学习| |57|xmind|思维导图| |58|秘塔写作猫|通用写作| |59|Pixso AI|设计工具| |60|火山翻译|翻译| |61|aippt|PPT|
2025-01-30
可以做一个小红书私信自动回复的ai程序或者智能体吗
在理论上是可以创建一个小红书私信自动回复的 AI 程序或智能体的。但这需要一定的技术知识和开发能力。 首先,您需要确定回复的规则和逻辑,例如根据关键词、常见问题类型等来设定回复内容。 其次,选择适合的技术框架和工具,比如使用自然语言处理(NLP)技术和相关的库。 然后,进行数据收集和预处理,以训练模型能够准确理解和回复私信。 不过,需要注意的是,小红书的使用规则可能对自动回复有一定的限制和要求,您需要确保您的程序或智能体的使用符合其规定。
2025-01-30
有什么绘图AI工具
以下是一些常见的绘图 AI 工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,有拖放界面方便创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合可创建逻辑视图。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,有丰富模板用于创建多种视图。 6. draw.io(现在称为 diagrams.net):免费在线图表软件,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 转换工具,可通过描述文本自动生成相关视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图。 对于绘制 CAD 图,有以下 AI 工具和插件: 1. CADtools 12:Adobe Illustrator 插件,添加绘图和编辑工具。 2. Autodesk Fusion 360:集成 AI 功能的云端 3D CAD/CAM 软件。 3. nTopology:基于 AI 的设计软件,帮助创建复杂 CAD 模型。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,可根据输入自动生成 3D 模型。 5. 一些主流 CAD 软件如 Autodesk 系列、SolidWorks 等提供的基于 AI 的生成设计工具。 绘制示意图的工具还有: 1. Creately:在线绘图和协作平台,利用 AI 简化图表创建,适合绘制流程图等。 2. Whimsical:专注于用户体验和快速绘图,适合创建线框图等。 3. Miro:在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制。 使用 AI 绘制示意图的步骤: 1. 选择工具:根据具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录平台。 3. 选择模板:利用模板库选择适合需求的模板。 4. 添加内容:添加并编辑图形和文字,利用 AI 自动布局功能优化图表布局。 5. 协作和分享:需要团队协作可邀请成员一起编辑,完成后导出并分享图表。
2025-01-30
我是行政专员,零基础入门AI,如果帮忙自己提供工作效率和质量
对于行政专员零基础入门 AI 以提升工作效率和质量,以下是一些建议: 1. 了解 AI 的应用场景:AI 在很多领域都有显著的成果,如交通监控、银行账户欺诈检测、核融合控制、新药发现以及应对气候变化的技术等。它有潜力在您的工作中发挥作用,例如自动化一些重复性的任务。 2. 建立 AI 工作流:目前大多数人零碎地使用 AI 工具,未将其系统应用到工作场景中,导致整体效率提升不明显甚至下降。要避免像小明那样在挑选和切换工具上浪费时间,应建立一套完整、适合自己的 AI 工作方法论和流程。 3. 系统学习和实践:深入学习如何将 AI 工具与行政工作相结合,通过不断实践找到最适合自己工作的方法和工具。
2025-01-30
零基础怎么入门AI工具,行政专员一个
对于零基础的行政专员入门 AI 工具,以下是一些建议: 1. 明确学习目标:确定您希望通过 AI 工具解决哪些行政工作中的问题或提高哪些方面的效率。 2. 学习基础知识:了解 AI 的基本概念,例如机器学习、深度学习、自然语言处理等。可以通过在线课程、科普文章和视频来学习。 3. 选择适合的工具:根据行政工作的需求,选择一些易于上手的 AI 工具,如自动化文档处理工具、智能客服工具等。 4. 参加培训课程:报名参加专门针对零基础的 AI 入门培训课程,这些课程通常会有系统的教学和实践指导。 5. 实践操作:在实际工作中尝试使用所选的 AI 工具,积累经验。 6. 加入学习社区:参与 AI 学习的社区或论坛,与其他学习者交流经验,获取更多的学习资源和建议。 7. 持续学习和更新知识:AI 领域发展迅速,要保持学习的热情,不断跟进新的技术和工具。
2025-01-30
不同厂家的AI产品是底层算法不一样吗?比如ChatGPT和豆包
不同厂家的 AI 产品底层算法通常是不一样的。 以常见的 ChatGPT 和豆包为例,ChatGPT 是由 OpenAI 开发的,其底层算法具有独特的特点和优势。而豆包是由字节跳动开发的,也有其自身的算法设计和优化。 在当前的 AI 领域,大多数 AI 应用程序都由大型语言模型(LLMs)驱动,其中只有几个基础模型,由少数几个组织创建。例如 OpenAI 制作了 GPT3.5 和 GPT4,Google 有 Bard 等。 从相关的访问量数据来看,不同的 AI 产品在市场上的表现也有所不同。比如在某些月份,ChatGPT 的访问量较高,而豆包的访问量也在不断变化。但这并不能直接反映其底层算法的差异,只是从侧面反映了它们在用户中的受欢迎程度和使用情况。
2025-01-17
ChatGPT的底层原理是什么
ChatGPT 的底层原理主要包括以下几个方面: 1. 数据获取与训练:从网络、书籍等来源获取大量人类创作的文本样本,然后训练神经网络生成“类似”的文本。 2. 神经网络结构:由非常简单的元素组成,尽管数量庞大。基本操作是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”(没有任何循环等)。 3. 生成文本方式:通过自回归生成,即把自己生成的下一个词和之前的上文组合成新的上文,再生成下一个词,不断重复生成任意长的下文。 4. 训练目的:不是记忆,而是学习以单字接龙的方式训练模型,学习提问和回答的通用规律,实现泛化,以便在遇到没记忆过的提问时,能利用所学规律生成用户想要的回答。 5. 与搜索引擎的区别:搜索引擎无法给出没被数据库记忆的信息,而ChatGPT作为生成模型,可以创造不存在的文本。 其结果表明人类语言(以及背后的思维模式)的结构比我们想象的要简单和更具有“法律属性”,ChatGPT已经隐含地发现了它。同时,当人类生成语言时,许多方面的工作与ChatGPT似乎相当相似。此外,GPT的核心是单字接龙,在翻译等场合应用时,先直译再改写能使Transform机制更好地起作用。
2024-12-03
ai的底层逻辑是什么
AI 的底层逻辑包括以下几个方面: 1. 决策方面:AI 在越来越多的场景落地,成为企业管理和决策的重要工具。然而,AI 的决策过程并非真正的“理解”,而是基于复杂计算和模式匹配,其本质存在局限性,是个“黑盒”,输出结果可见但决策过程难以理解,这种不透明性给企业决策带来风险。 2. 大模型方面:大模型依靠概率计算逐字接龙工作,参数规模的增加使其实现量变到质变的突破,从而“涌现”出智能。大模型的知识是通过预训练预先学习和存储的,但在没有外部帮助时,其知识信息可能不完备和滞后。 3. 神经网络方面:计算机科学家以人脑神经元细胞结构为灵感,利用概览模型在计算机上实现对人脑结构的模仿,但大模型内部如同人类大脑一样是混沌系统,即使是开发者也无法解释其微观细节。
2024-11-13
如果想学习ai,作为ai产品经理,需要ai底层的算法掌握到什么程度
作为 AI 产品经理,对 AI 底层算法的掌握程度需要达到以下几个方面: 1. 理解产品核心技术:了解基本的机器学习算法原理,以便做出更合理的产品决策。 2. 与技术团队有效沟通:掌握一定的算法知识,减少信息不对称带来的误解。 3. 评估技术可行性:在产品规划阶段,能够准确判断某些功能的技术可行性。 4. 把握产品发展方向:了解算法前沿,更好地把握产品未来的发展趋势。 5. 提升产品竞争力:发现产品的独特优势,提出创新的产品特性。 6. 数据分析能力:掌握相关算法知识,提升数据分析能力。 同时,如果希望在 AI 领域继续精进,还需要了解以下基础内容: AI 背景知识: 基础理论:清楚人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等基本概念。 概率论:掌握基础的概率论知识,如条件概率、贝叶斯定理。 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:了解其基本概念。 评估和调优: 性能评估:知道如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学会使用网格搜索等技术优化模型参数。 神经网络基础: 网络结构:理解包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)等的基本结构。 激活函数:熟悉常用的激活函数,如 ReLU、Sigmoid、Tanh。
2024-11-05
AIGC的底层科学原理是神经网络吗?
AIGC 的底层科学原理包含神经网络。 神经网络是一种模仿生物神经网络的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。它由大量的人工神经元联结进行计算,是一种自适应系统,具备学习功能。 在 AI 领域,神经网络是一种重要的技术。深度学习就是一种参照人脑结构,包含神经网络和神经元的方法(因层数较多而称为深度)。神经网络可以用于监督学习、无监督学习、强化学习等多种学习方式。 同时,Transformer 模型的出现也对 AIGC 产生了重要影响,它完全基于自注意力机制处理序列数据,比循环神经网络更适合处理文本的长距离依赖性。
2024-10-30
AI搜索的底层逻辑是怎样的
AI 搜索的底层逻辑主要是“检索增强生成(RAG)”,具体包括以下步骤: 1. 检索(Retrieve):使用用户的查询(query)调用搜索引擎 API,获取搜索结果。 2. 增强(Augmented):设置提示词,将检索结果作为挂载的上下文。 3. 生成(Generation):大模型回答问题,并标注引用来源。 在检索过程中,还涉及以下原理: 1. 信息筛选与确认:对检索器提供的信息进行评估,筛选出最相关和最可信的内容,并验证信息的来源、时效性和相关性。 2. 消除冗余:识别和去除多个文档或数据源中的重复信息,避免在生成回答时出现重复或矛盾。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建结构化的知识框架。 4. 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括排序、归类和整合。 5. 语义融合:必要时合并意义相近但表达不同的信息片段,减少语义重复并增强表达力。 6. 预备生成阶段:将整合好的上下文信息编码成适合生成器处理的格式,如转化为适合输入到生成模型的向量形式。 最后,全新的上下文被传递给大语言模型,大语言模型根据提供的信息生成准确和连贯的答案。影响 AI 搜索的关键因素包括挂载的上下文信息密度和基座模型的智能程度。在响应速度方面,Retrieve 要求联网检索信息的速度快,Generation 要求大模型生成内容的速度快,同时为提高准确度可能存在耗时的重排和获取内容详情步骤。
2024-10-16
Deepseek 使用逻辑
DeepSeek 的使用逻辑如下: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计了阈值系统,可能会根据反馈修改。 用 XML 进行更为规范的设定,而非 Lisp 和 Markdown。 关于 DeepSeek 的其他信息: 1 月 26 日社区动态速览: 提示词框架包含四大模块:任务目的、计划规则、格式规则、输出说明。通过明晰的任务拆分与规则定义,让提示更具可操作性,但不可过度依赖,有示例模板可清晰展现相关内容。 Anthropic 的“计算机使用”模型,Claude 有新能力,如可识别屏幕截图,计算光标像素坐标并执行操作,结合了图像识别、推理和动作能力,能将用户指令转化为具体步骤并执行,少量软件训练后能自我纠正并迅速上手。 OpenAI Operator 工作机制,利用虚拟主机、Chrome 浏览器、CUA 实现网页实时操控,能执行复杂导航任务,结合 GPT4o 的视觉处理与强化学习,可处理屏幕截图、推理操作并发送指令,在感知—推理—动作循环中迭代,遇敏感任务则提示用户确认。 开源项目 Browser Use。 1 月 28 日社区动态速览: 华尔街分析师认为 DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶,高盛认为其或改变科技格局,降低 AI 行业进入门槛。 DeepSeek 中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱,数学能力不错,编程能力逊于 GPT,采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。 复旦大学 OpenMOSS 发布实时语音交互模型,中文语音体验近似 GPT4o 高级语音,响应时间低于 200 毫秒,支持打断和自然互动,可生成多情感、多风格语音,包含方言、戏剧化台词等,多语言适配,嘈杂环境下仍具备强逻辑推理能力。 阿里巴巴推出 Qwen2.51M 模型。
2025-01-30
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
目前最前沿的应用在游戏领域的AI技术点是什么,包括游戏开发过程中的成本降低、效率提升,包括游戏内容生成,包括游戏后期运营推广。介绍技术点的技术逻辑以及技术细节。
目前在游戏领域应用的前沿 AI 技术点主要包括以下几个方面: 1. 利用 AIGC 技术实现游戏产业的生产力革命: 降低开发成本:借助人工智能的内容创作工具,如生成新的游戏内容(地图、角色和场景)、驱动游戏中的非玩家角色(NPC)、改进游戏的图像和声音效果等,能够缩减游戏开发的成本。 缩短制作周期:例如通过程序化内容生成,包括利用人工智能生成文字、图像、音频、视频等来创作游戏剧本、人物、道具、场景、用户界面、配音、音效、配乐、动画和特效等,从而减少游戏开发时间。 提升游戏质量和带来新交互体验:AIGC 技术为游戏带来不同以往的新体验,甚至创造出新的游戏类型以及新的交互方式。 2. 游戏内容辅助生成: 生成文、生成图、生成 3D 以及生成音乐。应用场景包括游戏策划人和制作人、美术设计师等。 对于工业化的游戏公司,基于 Stable Difussion 的生成能够通过 2D 美术素材的辅助生成提高创业效率 50%,降低 20%80%的成本。 文生图:通过提示词加参数就可以形成 2D 的参考图,适配度高。 图生图:原画师或美术可以使用,用一个线稿或原画,在原画基础上加一些 Prompt 和参数,就可以形成一个效果图和二级的素材。 动画辅助渲染:用 Lora 对角色背景、关键帧进行风格渲染,例如将真人视频渲染成二次元风。 3. 游戏的智能运营: 智能 NPC 互动:保持长期记忆,保持人物个性和对话表现形式,同时满足成本平衡。 客服、攻略的问答、代码和脚本的生成。主要针对游戏的产品经理、运营经理和社区的运营经理。 游戏社区运营:如海外的 Discord,国内的 Fanbook,让更多玩家在游戏之外,在社群里面很好地互动,基于游戏的美术素材进行二创、查询攻略和使用智能客服。 这些技术的技术逻辑和技术细节如下: 1. AIGC 技术:基于大语言模型和扩散模型,通过机器学习、强化学习等先进技术进行训练,能够理解和生成各种游戏相关的内容。 2. 游戏内容辅助生成:利用深度学习算法对大量的游戏相关数据进行学习和分析,从而能够根据给定的提示或参数生成相应的游戏内容。 3. 智能运营方面:通过构建智能模型,对玩家的行为和需求进行分析和预测,从而提供个性化的服务和互动。
2024-12-22
如何利用GPT进行逻辑回归分析
利用 GPT 进行逻辑回归分析可以参考以下步骤: 1. 首先,在数据准备阶段,明确需要分析的数据内容,例如用户描述想分析的内容,或者上传相关文件并描述其数据、字段意义或作用等,以辅助 GPT 理解数据。 2. 对于 SQL 分析,后台连接数据库,附带表结构信息让 GPT 输出 SQL 语句,校验其是否为 SELECT 类型,其他操作如 UPDATE/DELETE 绝不能通过。校验通过后执行 SQL 返回结果数据,再将数据传给 GPT(附带上下文),让其学习并分析数据。 3. 在与 GPT 的交互过程中,不断输入真实的业务需求场景以及现存的问题,帮助 GPT 更好地理解需求,例如输入旧代码、需求和问题,让 GPT 给出针对性的优化建议。 4. 根据 GPT 给出的结果进行调试和优化,可能需要多轮的输入输出(类似讨论),不断强化 GPT 对真实需求的认知。 5. 例如在 SQL 优化方面,GPT 可能提出如每次更新 1 天而不是 30 天的数据、创建中间结果表存储非二次计算的数据、利用 CASE WHEN 合并查询约束条件基本相同的指标等建议。然后根据这些建议结合自身的能力进行代码优化和测试。 需要注意的是,整个过程可能比较繁琐,需要有一定的耐心,包括查资料、处理报错、纠正 GPT、不断补充需求细节等。
2024-12-13
当前国内逻辑推理能力最强的大模型是什么
目前国内逻辑推理能力较强的大模型有以下几种: 1. Baichuan213BChat(百川智能):是百川智能自主训练的开源大语言模型。在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名 200 亿参数量级国内模型第一,其中逻辑推理能力超过 34B 参数量级的大模型,生成与创作能力超过 72B 参数量级的模型。可应用于小说/广告/公文写作等内容创作场景、智能客服/语音助手以及任务拆解规划等场景,还能部署在教育、医疗、金融等垂直行业中应用,同时可部署在低算力终端处理基础智能任务。 2. 智谱清言(清华&智谱 AI):是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。可应用于 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景,在较复杂推理应用上的效果也不错,广告文案、文学写作方面也是很好的选择。 3. 文心一言 4.0API(百度):在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一。另外在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三。能力栈较为广泛,可应用于查询搜索知识应用、任务拆解规划 Agent、文案写作以及代码编写及纠错等方面,在科学研究、教育、工业方面的落地能力也值得关注。
2024-12-08
不确定逻辑增长模型
对于逻辑增长模型的相关问题,以下是为您提供的信息: 张俊林在相关研究中指出,对于简单或中等难度的逻辑推理问题,通过 inferencetime 增加算力,比如树搜索等方式,比增强模型“预训练”阶段的逻辑推理能力效果更明显。这一结论来自于文献“Scaling LLM TestTime Compute Optimally can be More Effective than Scaling Model Parameters”及“Are More LM Calls All You Need?Towards the Scaling Properties of Compound AI Systems”。 其原因在于,对于简单或中等难度的问题,模型在 inference 时很可能给出答案中的大部分步骤是对的(或多次采样中多数是对的),只有个别步骤错误,通过如 BestofN Sampling 这种简单树搜索方法增加输出的多样性,加上靠谱的 Verifier 筛选,较容易修正小错误。但对于高难度的逻辑问题,模型输出内容中大部分步骤可能都是错的(或多次采样中大多数都是错的),此时仅靠 inferencetime 增加算力难以解决。 此外,OpenAI o1 的基座模型,在 Pretraining 还是 Posttraining 阶段,大概率极大增强了基座模型的复杂逻辑推理能力,这是它能在后续 inferencetime 增加算力解决复杂问题的根基。所以,只靠 inferencetime 增加算力,仅对容易和中等难度的逻辑问题有用,想要不断提升模型的复杂推理能力,还需要继续在 PreTrain 和 PostTraining 阶段下功夫。
2024-12-05