直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

GPT原理是什么,用 浅显语言逐层说明

回答

ChatGPT 的原理可以用浅显的语言逐层说明如下: 首先,它获取与迄今为止的文本相对应的 token 序列,并找到表示它们的嵌入(即一组数字的数组)。 然后,在这个嵌入上进行操作,以“标准神经网络方式”,值“逐层流动”到网络的连续层中,从而生成一个新的嵌入(即一个新的数字数组)。 接着,从这个数组的最后一部分生成一个大约有 50,000 个值的数组,这些值将变成不同可能的下一个 token 的概率。 关键是,这个流程的每个部分都是由神经网络实现的,其权重由端到端的网络训练确定。 此外,您还可以通过以下资源更深入地了解:

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

ChatGPT 是在做什么,为什么它有效?

它有三个基本阶段。首先,它获取与迄今为止的文本相对应的token序列,并找到表示它们的嵌入(即一组数字的数组)。然后它在这个嵌入上进行操作——以“标准神经网络方式”,值“逐层流动”到网络的连续层中——以生成一个新的嵌入(即一个新的数字数组)。然后,它从这个数组的最后一部分中生成一个大约有50,000个值的数组,这些值将变成不同可能的下一个token的概率。(是的,碰巧有大约与英语常用单词相同数量的token被使用,但只有大约3000个token是整个单词,其余的是片段。)关键是,这个流程的每个部分都是由神经网络实现的,其权重由端到端的网络训练确定。换句话说,实际上除了整体架构外,一切都是从训练数据中“学习”的,而不是“显式设计”。然而,在设置体系结构方面有许多细节,这些细节反映了各种经验和神经网络知识。即使这绝对涉及到细节,但我认为谈论其中一些细节仍然很有用,这至少可以让我们了解到构建ChatGPT这样的系统需要多少工作量。首先是嵌入模块。这是GPT-2的草图Wolfram语言表示:

1.1 入门:AI 学习路径

|名称|作者/来源|总结|链接|发布日期|必看星标|图片|<br>|-|-|-|-|-|-|-|<br>|ChatGPT诞生记:先捞钱,再谈理想|OpenAI翻身史|林亦LYi|ChatGPT的背后是OpenAI这家公司,今天我们聊聊它的理想、成果与争议。|[https://www.bilibili.com/video/BV1Te4y1w7D6/](https://www.bilibili.com/video/BV1Te4y1w7D6/)|2023/02/10|👍🏻||<br>|【渐构】万字科普GPT4为何会颠覆现有工作流|YJango|视频是关于GPT的底层原理和未来影响。将抛开技术细节,少用专业名词,在整体功能上讲解ChatGPT的「工作原理」「制造过程」「涌现的能力」「未来的影响」以及「如何应对」|[https://www.bilibili.com/video/BV1MY4y1R7EN/](https://www.bilibili.com/video/BV1MY4y1R7EN/)|2023/03/15|👍🏻||<br>|终于有人把chatGPT说清楚了——全网最深入浅出的chatGPT原理科普|新石器公园|本视频深入浅出的讲解了chatGPT的基本原理和演化过程,让你真正理解这个世界最大的变化。

1.1 入门:AI 学习路径

|任务名|内容摘要|链接|标签|分类|必读星标|<br>|-|-|-|-|-|-|<br>|ChatGPT中,G、P、T分别是什么意思?|GPT:Generative Pre-Training Transformer,分别代表生成式、预训练和转换器。|[https://mp.weixin.qq.com/s/vXoYeA7w6l_WiKmDHogdTA](https://mp.weixin.qq.com/s/vXoYeA7w6l_WiKmDHogdTA)|ChatGPT|入门||<br>|大白话聊ChatGPT|逐字稿:[2023/3/6大白话聊ChatGPT直播逐字稿(Sarah &王建硕)](https://d58hixvcd6.feishu.cn/docx/HfMEds7Z1ov37wxqM19czTBinWg)|[https://www.xiaoyuzhoufm.com/episode/641183b5bb1fc0cb68f810c6](https://www.xiaoyuzhoufm.com/episode/641183b5bb1fc0cb68f810c6)|ChatGPT|入门||<br>|AI的时代已经到来|在比尔·盖茨的一生中,他说看到了两次技术演示,让他感到革命性。一次是图形界面,而另一次呢,是他在2022年感受到的。

其他人在问
GPT是什么时候火的
GPT 于 2022 年 11 月底,随着 OpenAI 的 ChatGPT 横空出世而大火。在此之前,2018 年 OpenAI 将转换器模型与无监督学习相结合推出了 GPT,经过两年多的迭代,2020 年初推出 GPT3,2022 年底通过人类反馈的强化学习技术优化出 InstructGPT(即 GPT3.5),之后 OpenAI 在山姆·奥特曼的推动下,顶着巨大压力对公众开放了 ChatGPT,开启了新的智能时代。
2024-11-16
如何可以使用到chatgpto1大模型
目前 ChatGPT 没有 ChatGPT1 这个大模型。ChatGPT 有多个版本,如 ChatGPT3、ChatGPT3.5、ChatGPT4 等。您可以通过以下方式使用 ChatGPT 相关模型: 1. 访问 OpenAI 的官方网站,按照其指引进行注册和使用。 2. 部分应用和平台可能集成了 ChatGPT 的接口,您可以在这些应用中体验其功能。 需要注意的是,使用 ChatGPT 时应遵循相关的使用规则和法律法规。
2024-11-16
chatgpt file uploader extended 在哪里下载
以下是 ChatGPT File Uploader Extended 的下载方法: 安卓系统: 安装 Google Play:到小米自带的应用商店搜索 Google Play 进行安装,安装好后打开,按照提示一步步操作并登录。 下载安装 ChatGPT:到谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI。注意这步骤可能遇到“google play 未在您所在的地区提供此应用”的问题。解决方法是在 google play 点按右上角的个人资料图标,依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。如果账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡就行,填写信息时地区记得选美。如果回到 google play 首页还搜不到 chatgpt,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次。 体验 ChatGPT:如果只想体验 ChatGPT 3.5 版本,不升级 GPT4,直接登录第二部注册好的 ChatGPT 账号即可。 订阅 GPT4 Plus 版本:先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡,然后在 ChatGPT 里订阅 Plus。 苹果系统: 在 Apple Store 下载 ChatGPT:中国区正常下载不了,需要切换到美区才可以下载。美区 Apple ID 注册教程参考知乎链接: 。最终在 Apple Store 搜到 ChatGPT 下载安装,注意别下错。 支付宝购买苹果礼品卡充值订阅付费 App:打开支付宝,地区切换到【美区任意区】,往下滑,找到【品牌精选折扣礼品卡】,点击进去,可以看到【大牌礼品卡】,往下滑找到【App Store & iTunes US】礼品卡,按需要的金额购买即可,建议先买 20 刀。包括支付宝购买礼品卡、在 apple store 中兑换礼品卡、在 chatgpt 中购买订阅 gpt plus,如果中途不想继续订阅了,可到订阅列表中取消订阅。 使用 ChatGPT 4o: 开启对话:打开 ChatGPT 应用或网页,点击开始对话。会员不管是在苹果还是安卓手机上购买的,电脑上都能登录。 体验最新语音对话功能:版本切到 ChatGPT 4o,点击右下角“耳机🎧”图标,选择一个声音,就可以体验流畅的语音对话。
2024-11-15
claude 跟chatgpt的区别在哪
Claude 与 ChatGPT 的区别主要体现在以下几个方面: 1. 所属公司及理念:Claude 是 Anthropic 的产品,Anthropic 重视 AGI 的可解释和安全可靠性,其创始团队是 OpenAI 早期的核心人员,因理念不同自立门户。Anthropic 关注的是 HH(helpful and harmless)特性,即有用且无害,他们发现单纯使用 helpful 的数据训练存在易遭攻击的问题,需要两种数据混合训练。 2. 数据搜集:Anthropic 在亚马逊机器人平台上雇佣标注员扮演两种角色提问。模拟正常用户时,设置蓝队问积极正向的问题,允许多轮对话,选出更 helpful 的回答;模拟恶意用户时,设置红队问消极负面的挑衅问题,选出没那么 harmful 的回答,一般是单轮对话。标注员要求是美国硕士以上,通过筛选保证数据质量。 3. 标注和训练:作者未事先培训标注员什么是 helpfulness 和 harmfulness 以保证数据多样性。标注员筛选看写作水平、表达能力。同时在不同平台标注不同质量和数量的数据。在 RM 和 PPO 方面,Anthropic 称 RM 为 PM(Preference Model),发现 PM 模型越大、数据越多会涨点,这与 ChatGPT 中 RM 模型不能太大的结论不同。PPO 阶段的损失函数少了 InstructGPT 的第三项 SFT 项,因为作者发现 Policy 模型和 PM 模型足够大时,不加那一项效果也会持续提升。
2024-11-15
学生使用ChatGPT写作指南
以下是为学生提供的使用 ChatGPT 写作的指南: 数据科学博士研究生杰森·方(Jason Phang)将其用作双向交流途径,有时用中文写一段话请 ChatGPT 润色,有时观察其写出的内容学习短语或句子结构。 企业家罗纳尔多·马那克(Ronald Mannak)在想不起特定单词时,简单描述,ChatGPT 能帮忙找出,即使描述糟糕,也能明白需求。 作家和喜剧演员贝萨妮·格瑞斯·浩薇(Bethany Grace Howe)在需要灵感时让 ChatGPT 处理头韵、韵脚等以便创作笑话,对奇怪的首字母缩写也有帮助。 要具备一定洞察能力,在生活中发现需求。例如,重复在群里发同样的自我介绍,可写自动优化排版的 Prompt;每次让 AI 阅读文档时,为让答案更靠谱可写相应 Prompt。 在需要依赖模板的情况下,如处理美国移民事务中的签证或入学推荐信,可先列出要点,让 ChatGPT 写出信件,再稍作编辑。
2024-11-15
能向我解释ChatGPT的基本原理吗
ChatGPT 的基本原理如下: 1. 数据获取:从网络、书籍等来源获取大量人类创作的文本样本。 2. 训练神经网络:通过训练神经网络生成“类似”的文本。神经网络由简单元素组成,操作基本是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”。 3. 生成文本:能够从“提示”开始,然后继续生成“类似于训练内容”的文本。具体方式是把自己生成的下一个词,和之前的上文组合成新的上文,再生成下一个词,不断重复以生成任意长的下文,此过程称为自回归生成。 4. 训练目的:训练的主要目的不是记忆,而是学习以单字接龙的方式来训练模型,学习提问和回答的通用规律,以便在遇到没记忆过的提问时,能利用所学规律生成用户想要的回答,这种能力也叫做泛化。 5. 模型特点:ChatGPT 被称为生成模型,与搜索引擎不同,它可以创造不存在的文本。但它也存在缺点,可能混淆记忆,无法直接查看和更新所学,且高度依赖学习材料,导致缺乏及时性和准确性。 ChatGPT 中的 GPT 是 Generative PreTraining Transformer,即生成式预训练转换器。其本质功能是“单字接龙”,长文由单字接龙的回归所生成。 ChatGPT 的成功表明人类语言(以及背后的思维模式)的结构比我们想象的要简单和更具有“法律属性”。但它并不总是说出“全局意义上的话”或对应于正确的计算,只是根据训练材料中的“声音类似”的东西“说出”“听起来正确”的东西。 当我们人类生成语言时,许多方面的工作与 ChatGPT 似乎相当相似。但 ChatGPT 最终(至少在它可以使用外部工具之前),仅仅从它积累的“传统智慧统计数据”中提取了一些“连贯的文本线索”。
2024-11-14
帮我提交一份最适合企业办公管理人员的中文AI提示词教程,浅显易懂,生动有趣,不超过60分钟的授课时间内容材料
很抱歉,目前没有适合企业办公管理人员的中文 AI 提示词教程相关内容。但我可以为您提供一个大致的框架来创建这样的教程: 一、引言 介绍 AI 提示词的重要性和在企业办公中的应用场景。 二、基础概念 1. 解释什么是 AI 提示词。 2. 举例说明简单的提示词示例。 三、提示词的构建原则 1. 清晰明确 避免模糊和歧义。 具体描述需求。 2. 完整性 包含必要的信息。 不遗漏关键细节。 四、不同场景下的提示词应用 1. 数据分析与报告 如何获取准确的数据分析结果。 生成清晰的报告提示词技巧。 2. 项目管理 安排任务和跟踪进度的提示词。 协调团队的有效提示词。 3. 客户服务 快速解决客户问题的提示词。 提供满意答复的提示词要点。 五、实践与练习 让学员自己尝试构建提示词,并进行分享和讨论。 六、总结 回顾重点内容,鼓励学员在实际工作中应用。 您可以根据以上框架,结合具体的案例和生动的语言,来丰富和完善这份教程,使其满足您的需求。
2024-09-09
帮我提交一份最适合企业办公管理人员的AI提示词教程,浅显易懂,生动有趣,不超过60分钟的授课时间内容材料
以下是为企业办公管理人员准备的一份 AI 提示词教程,预计授课时间不超过 60 分钟,内容浅显易懂、生动有趣: 一、什么是 prompt(提示词) 为什么 prompt 又被称之为咒语,而使用 AI 的人被称之为魔法师呢?通过本部分的学习,您将明白其中的道理,并能迅速入门 prompt 的使用,达到一般公司设计岗所需的 AI 绘图水准。 建议:打开任意一款 SD 产品分屏对照使用。 二、人机协作 在短短 45 分钟的课堂中,您将了解到人机协作的重要性。比如通过兔龟的例子,您会明白在绘图提示词中,要清晰表达、给出具体描述。为了教垫图技巧,还会给出让兔龟站起来却失败的例子。 三、与 AI 对话迭代 不管是和 AI 脑洞机一起设计新生物,还是写歌词,您需要在和 AI 对话的过程中把自己的偏好告诉它。通过几次迭代,您将学会如何更好地与 AI 交流。 四、要有自己的判断 AI 可能会胡说八道,因此人类不能无脑依赖 AI。面对 AI 给的答案要多思考“它说得对吗”,多参考相关信息,避免被带偏。例如改良版荔枝瓢虫的故事,能让您记住人类得有自己的判断。 如果您在学习过程中有任何觉得不够清晰的地方,请在评论区留言,或者添加微信 designurlife1st 直接沟通(记得备注来意:ai 绘图交流)。
2024-09-09
什么是知识库,以及他的运作原理是什么,请用小白也能理解的语言进行说明
知识库可以用比较通俗的方式来理解: 想象一个大语言模型就像一个非常聪明、读过无数书的人,但对于一些特定的工作场景中的细节,比如见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折,它可能并不清楚。这时候,知识库就像是给这个聪明的人发的一本工作手册。 从更专业的角度来说,知识库的运作原理通常包括以下几个步骤: 1. 文档加载:从各种不同的来源,比如 PDF、SQL 数据、代码等加载相关的文档。 2. 文本分割:把加载的文档分割成指定大小的块,称为“文档块”或“文档片”。 3. 存储:这包括两个环节,一是将分割好的文档块进行嵌入,转换成向量的形式;二是将这些向量数据存储到向量数据库中。 4. 检索:当需要使用数据时,通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给大语言模型,大语言模型会根据问题和检索出来的提示一起生成更合理的答案。 以车型数据为例,每个知识库的分段中保存了一种车型的基础数据。当用户问宝马 X3 的售价是多少时,就能匹配到对应车型的分段,然后从其中获取到售价信息。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2024-11-13
基于消费者均衡条件与边际效用递减原理推导出需求曲线向右下方倾斜、
消费者均衡条件是指在既定收入和价格下,消费者购买各种商品的数量组合使其获得最大效用。边际效用递减原理指在一定时间内,在其他商品的消费数量保持不变的条件下,随着消费者对某种商品消费量的增加,消费者从该商品连续增加的每一消费单位中所得到的效用增量即边际效用是递减的。 当消费者在消费过程中遵循消费者均衡条件时,由于边际效用递减,消费者为了获得相同的总效用,会在商品价格下降时增加对该商品的购买量,在商品价格上升时减少对该商品的购买量。 假设商品 X 的价格下降,根据边际效用递减原理,消费者在消费商品 X 时,每增加一单位商品 X 所带来的边际效用是递减的。但由于价格下降,使得每一单位货币能购买到更多的商品 X,从而使得消费者在购买商品 X 上获得的边际效用增加。为了达到新的消费者均衡,消费者会增加对商品 X 的购买量。 反之,当商品 X 的价格上升时,每一单位货币能购买到的商品 X 减少,消费者在购买商品 X 上获得的边际效用减少,为了达到新的消费者均衡,消费者会减少对商品 X 的购买量。 综上所述,随着商品价格的变化,消费者对商品的购买量呈现出反向变动的关系,从而推导出需求曲线向右下方倾斜。
2024-11-12
AIGC的底层科学原理是神经网络吗?
AIGC 的底层科学原理包含神经网络。 神经网络是一种模仿生物神经网络的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。它由大量的人工神经元联结进行计算,是一种自适应系统,具备学习功能。 在 AI 领域,神经网络是一种重要的技术。深度学习就是一种参照人脑结构,包含神经网络和神经元的方法(因层数较多而称为深度)。神经网络可以用于监督学习、无监督学习、强化学习等多种学习方式。 同时,Transformer 模型的出现也对 AIGC 产生了重要影响,它完全基于自注意力机制处理序列数据,比循环神经网络更适合处理文本的长距离依赖性。
2024-10-30
LLM原理
LLM(大语言模型)的工作原理如下: 大模型在回复时是一个字一个字地推理生成内容,就像输入法的输入联想逻辑,会根据输入的字推测下一个字。但仅算字的概率存在问题,且全量数据计算算力吃不消。 为解决这些问题,出现了词向量机制和 transformer 模型中的 attention 自注意力机制。 以“我今天吃了狮子头和蔬菜”这句话为例,在 transformer 中,attention 层会对其加入更多信息补充,如“狮子头是一道菜”“今天是星期六”等,层与层之间由模型自主学习哪些信息补充、保留和传递,最终把海量数据以关系网形式“消化”并保留重要相关性。 这些层就像人阅读文章时的连贯性注意力过程,记忆的不是点状知识而是网状经验。 大模型以词向量和 transformer 的模型学习海量知识,把知识作为向量空间中的关系网存储,接受输入时通过向量空间中的匹配进行输出。 就像人脑阅读学习,记忆不是逐字逐句,而是按相关性、重要程度结合历史经验,比如记忆“红色”时会带有很多“feature”信息。 常见缩写和专业词汇解释: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,其质量会影响回答质量。 Token:大模型语言体系中的最小单元,不同厂商对中文的切分方法不同,1Token 约等于 1 2 个汉字,收费和输入输出长度限制以 token 为单位。 上下文:英文为 context,指对话聊天内容前、后的信息,其长度和窗口会影响回答质量。
2024-10-24
kimi探索版技术原理
Kimi 探索版的技术原理如下: 工作流方面:通过工作流输出的卡片绑定和多轮输出推动剧情发展,其中相对复杂的技术实现是工作流中嵌套的图像流。但此 bot 未涉及自有 plugin、数据库、用户状态、外部系统交互等技术组件。 模型选择:选用 kimi 的 32k 模型,可选模型有 GLM4、Moonshot、MinMax 和百川,不确定作者选定此模型的具体理由,个人倾向于通义,底模决定了 bot 的能力。 历史更新:2024 年 10 月 11 日,Kimi 和智谱同时发布了深度推理的功能。相关共学课程的课件和回放已发布。此外,还有关于转变对 AI 态度的相关论述,强调将 AI 作为协作伙伴,通过对话式编程提升工作效率,解锁其创造力。
2024-10-22