Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

scalinglaw什么意思

Answer

Scaling Law(规模定律)指的是在模型预训练中,只要三个关键因素——模型大小、数据量、训练时间(计算量)不断增长,模型性能就能大斜率指数级爆发式提升。足够的规模带来——“涌现”,即自发地产生复杂智能,完成复杂问题的推理、并形成非同分布下的泛化性提升。

2024 年整年,一个争论笼罩着 AI 界——Scaling Law 是正确的,但在现实中,Scaling Law 是不是已经触及天花板。算力需求已达惊人规模,基础设施跟不上发展速度,优质数据接近极限,合成数据训练存在“近亲繁殖”问题可能导致模型能力长期衰退。

在 OpenAI 的相关研究中,“良好且通用的数据表示,良好且通用的数据标注,良好且通用的算法”为检测 Scaling Law 做好了准备。同时,在 Sora 的研究中,也遵循了 Scaling Law,即在足量的数据、优质的标注、灵活的编码下,Scaling Law 在 transformer+diffusion model 的架构上继续成立,其想法很大程度上沿袭了大语言模型的经验。

Content generated by AI large model, please carefully verify (powered by aily)

References

码观 | 共识与非共识:从模型到应用,2024 AI 趋势回首与展望

技术范式的演进Scaling Law初遇瓶颈Scaling Law效果放缓是2024年贯穿整年的争论。Scaling Law(规模定律)指的是在模型预训练中,只要三个关键因素——模型大小、数据量、训练时间(计算量)不断增长,模型性能就能大斜率指数级爆发式提升。足够的规模带来——“涌现”,即自发地产生复杂智能,完成复杂问题的推理、并形成非同分布下的泛化性提升。相信Scaling Law,是OpenAI的梦幻发展和这一代大模型能力梦幻提升的起点。而2024年整年,一个争论笼罩着AI界——Scaling Law是正确的,但在现实中,Scaling Law是不是已经触及天花板?算力需求已经达到惊人规模,xAI正在建设10万卡数据中心;基础设施跟不上发展速度,OpenAI提出的5吉瓦数据中心计划几乎相当于纽约州五分之一的居民用电量;最关键的是,正如OpenAI前首席科学家Ilya Sutskever所言,优质数据已接近极限。而合成数据训练的“近亲繁殖”问题,更可能过拟合导致模型能力的长期衰退。然而,OpenAI的o系列模型带来了转机。新的Scaling Law——慢思考与快思考人类对AGI的追求,莫不如说是人类对完全创造另一个“人类”的疯狂幻想,而要让模型“思考”,最重要的是“大脑”。研究人员相信,人的思考其实是细微电流通过神经元,因此如果有足够大、足够接近人脑的人工神经网络,它就可以实现人脑的工作——思考。在人类心理学中,诺贝尔经济学奖得主丹尼尔·卡尼曼提出了著名的“系统1”和“系统2”理论:人类的思维过程分为快速、直觉的“系统1”和缓慢、深思熟虑的“系统2”。

GPT、DALL·E、Sora,为什么 OpenAI 可以跑通所有 AGI 技术栈?

而具体来谈,就是我们之前说的「良好且通用的数据表示,良好且通用的数据标注,良好且通用的算法」,在GPT和Sora中都有相应的内容:在GPT中,良好且通用的数据表示,是tokenizer带来的embedding。良好且通用的数据标注是文本清理和去重的一套方法(因为自然语言训练是unsupervised training,数据本身就是标注)。良好且通用的算法就是大家熟知的transformers+autoregressive loss。在Sora中,良好且通用的数据表示,是video compress network带来的visual patch。良好且通用的数据标注是OpenAI自己的标注器给视频详细的描述(很可能是GPT-vision)。良好且通用的算法也是大家熟知的transformers+diffusion「良好且通用的数据表示,良好且通用的数据标注,良好且通用的算法」同时也为检测scaling law做好了准备,因为你总是可以现在更小规模的模型和数据上检测算法的效果,而不用大幅更改算法。比如GPT1,2,3这几代的迭代路径,以及Sora中OpenAI明确提到visual patch使得他们用完全一样的算法在更小规模的数据上测试。公理3:Emerging properties。这条公理其实是一条检验公理:我怎么知道scaling law带来「质变」,而不仅仅是「量变」?答案是:你会发现,随着scaling law的进行,你的模型突然就能稳定掌握之前不能掌握的能力,而且这是所有人能够直观体验到的。

GPT、DALL·E、Sora,为什么 OpenAI 可以跑通所有 AGI 技术栈?

Sora多么牛逼多么真实之类的就不多谈了,只用一句话就能概括:随便拿视频中的一帧出来,效果都不亚于Dalle-3精心生成一张图片,而且这些图片放在一起可以构成基本符合真实世界物理逻辑的视频。而且Sora本身其实也可以做图片生成,只是大材小用了。如果限制必须用一个词来展现OpenAI的最核心的技术,我觉得便是scaling law——即怎么样保证模型越大,数据越多,效果就越好。Sora也不例外。一句话概括Sora的贡献,便是:在足量的数据,优质的标注,灵活的编码下,scaling law在transformer+diffusion model的架构上继续成立。在Sora的技术报告*中可以看出,OpenAI实现scaling law的想法其实很大程度上沿袭了大语言模型的经验。https://openai.com/research/video-generation-models-as-world-simulators[heading3]足量的数据[content]训练Sora用了多少数据?不出意外,OpenAI在整个技术分析中一点都没有提数据的事情,这可太CloseAI了。但是鉴于内容的丰富性(比如甚至可以生成相当连贯一致的Minecraft游戏视频),我猜测很可能是大量的YouTube视频,同时也不排除有合成数据(比如3D渲染等)。未来可能用整个YouTube上的视频来训练视频生成模型,就和大家用Common Crawl训练大语言模型一样。

Others are asking
多模态大模型是什么意思
多模态大模型(MLLM)是一种在统一框架下,集成多种不同类型数据处理能力的深度学习模型,这些数据包括文本、图像、音频和视频等。通过整合多样化的数据,MLLM 能够更全面地理解和解释现实世界中的复杂信息,在面对复杂任务时表现出更高的准确性和鲁棒性。其架构通常包括一个编码器、一个连接器和一个 LLM,还可选择性地在 LLM 上附加一个生成器以生成除文本之外的更多模态。连接器大致可分为基于投影的、基于查询的和基于融合的三类。 Google 的人工智能多模态大模型叫 Gemini,是 Google DeepMind 团队开发的。Gemini 不仅支持文本、图片等提示,还支持视频、音频和代码提示,能够理解和处理几乎任何输入,结合不同类型的信息,并生成几乎任何输出,被称为 Google 迄今为止最强大、最全面的模型,从设计之初就支持多模态,能够处理语言、视觉、听觉等不同形式的数据。 学习多模态大模型很有必要,因为它可以从图像中提取文本,理解图像或视频中发生的事情,识别物体、场景甚至情绪。例如,有人想为猫买新衣服,可给模型提供猫的图片和文本提示,模型会给出适合猫的衣服建议;在学生解决物理问题的例子中,模型能根据包含问题和答案的图像以及文本提示,进行推理并判断答案是否正确。输入可以是文本、图像、音频的混合,顺序很重要。
2025-01-02
绘画提示词中的“P”是什么意思?
在绘画提示词中,“P”通常不是一个具有特定普遍含义的独立符号或缩写。但“POV”是“Point of View”的缩写,意为“视角”。在美术创作中,尤其是绘画和摄影领域,视角指的是观察者或摄像机所在的位置和角度。选择不同的视角可以极大地影响作品的视觉效果和观众对作品的感受。 视角在绘画中的作用包括: 1. 视觉引导:可以用来引导观众的视线,通过选择特定的角度,艺术家可以强调作品中的某些元素,使它们更加突出。 2. 情感表达:不同的视角可以传达不同的情感和氛围。例如,从高处看的视角可能会让物体显得更小、更脆弱,而从低处看的视角可能会让物体显得更强大、更有威严。 3. 空间感:通过精确的透视技巧,视角可以帮助艺术家在二维平面上创造出深度和空间感,使画面更加立体和真实。 4. 故事叙述:视角可以用来讲述故事,通过选择与故事内容相匹配的视角,艺术家可以增强叙事的力度和清晰度。 在创作提示词时,有一些技巧: 1. 透视:了解和运用透视原理是掌握不同视角的关键。透视可以创造出深度感和空间感,使画面更加逼真。 2. 构图:选择合适的视角可以帮助艺术家更好地构图,通过角度和视点的选择来平衡画面,创造出和谐的画面效果。 3. 光影:不同的视角会影响光线的方向和强度,艺术家需要根据所选的视角来调整光影效果,以增强画面的真实感和表现力。 在提示词的语法方面,根据自己想画的内容写出提示词,多个提示词之间使用英文半角符号。一般而言,概念性的、大范围的、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。提示词的顺序很重要,越靠后的权重越低。关键词最好具有特异性,措辞越不抽象越好,尽可能避免留下解释空间的措辞。还可以使用括号人工修改提示词的权重。
2024-12-26
AI提示词的意思是指训练自己的AI智能体吗
AI 提示词并非仅仅指训练自己的 AI 智能体。 智能体大多建立在大模型之上,其发展从基于符号推理的专家系统逐步演进而来。基于大模型的智能体具有强大的学习能力、灵活性和泛化能力。智能体的核心在于有效控制和利用大型模型以达到设定目标,这通常涉及精确的提示词设计,提示词的设计直接影响智能体的表现和输出结果。 设计提示词本质上是对模型进行“编程”,通常通过提供指令或示例完成。与多数其他 NLP 服务不同,补全和聊天补全几乎可用于任何任务,包括内容或代码生成、摘要、扩展、对话、创意写作、风格转换等。 我们的模型通过将文本分解为标记来理解和处理文本,在给定的 API 请求中处理的标记数量取决于输入和输出长度。对于英文文本,1 个标记大约相当于 4 个字符或 0.75 个单词,文本提示词和生成的补全合起来不能超过模型的最大上下文长度。
2024-12-25
生成式人工智能或者专门的书籍教程是什么意思?这种人工智能有什么用?现在市面上有免费的吗?要是没有免费的我去翻外网也可以
生成式人工智能是一种能够创建新内容的人工智能技术。以下是关于生成式人工智能的一些详细信息: 课程方面: 台湾大学李宏毅教授的生成式 AI 课程,主要介绍了其基本概念、发展历程、技术架构和应用场景等内容。课程共 12 讲,每讲约 2 小时。通过学习该课程,可掌握基本概念和常见技术,能使用相关框架搭建简单模型,了解发展现状和未来趋势。学习内容包括: 1. 什么是生成式 AI:定义和分类,与判别式 AI 的区别,应用领域。 2. 生成式模型:基本结构和训练方法,评估指标,常见模型及其优缺点。 3. 生成式对话:基本概念和应用场景,系统架构和关键技术,基于模型的对话生成方法。 4. 预训练语言模型:发展历程和关键技术,优缺点,在生成式 AI 中的应用。 5. 生成式 AI 的挑战与展望:面临的挑战和解决方法,未来发展趋势和研究方向。 改变创意工作方面: 生成式人工智能在创意工作中发挥着重要作用。例如,生成模型经过训练后,可针对特定内容领域进行“微调”,催生了用于生物医学、法律、法语等的专用模型,以及适用于不同目的的 GPT3 等。NVIDIA 的 BioNeMo 是用于在超级计算规模上训练、构建和部署大型语言模型的框架,适用于生成化学、蛋白质组学和 DNA/RNA 等内容。但使用生成式人工智能仍需人工参与,人类要输入提示让其创建内容,创造性的提示会产生创造性的输出,“即时工程师”可能成为新职业。该领域已出现 DALLE 2 图像提示书和提示市场。 学习资源: 1. 教材:《生成式 AI 导论 2024》,李宏毅。 2. 参考书籍:《深度学习》,伊恩·古德费洛等。 3. 在线课程:李宏毅的生成式 AI 课程。 4. 开源项目:OpenAI GPT3、字节跳动的云雀等。 学习方法:根据课程内容和资源,制定适合自己的学习计划,多实践、多思考。 目前市面上有部分免费的生成式人工智能资源,但也有收费的。需要注意的是,未经许可翻外网可能存在法律风险,请您谨慎选择。
2024-12-24
深度学习是什么意思?
深度学习是一种源于新方法和策略的技术,旨在通过克服梯度消失问题来生成深层的非线性特征层次,从而能够训练具有数十层非线性层次特征的体系结构。 深度学习不仅与学习深度非线性层次特征有关,还与学习检测序列数据中非常长的非线性时间依赖性有关。例如,长短时记忆循环神经网络允许网络收集过去几百个时间步的活动,从而做出准确的预测。 深度学习是一种参照人脑神经网络和神经元的方法,由于具有很多层所以称为“深度”。神经网络可以用于监督学习、无监督学习、强化学习等。 自 2010 年早期,结合 GPUs 和激活函数提供更好的梯度流,足以在没有重大困难的情况下训练深层结构,人们对深度学习的兴趣与日俱增。自 2013 年以来,长短时记忆网络的使用量迅速增长,与卷积网络一起构成了深度学习的两大成功案例之一。
2024-12-24
AGI是什么意思
AGI 是通用人工智能(Artificial General Intelligence)的缩写,指的是能够像人类一样思考、学习和执行多种任务的人工智能系统,即可以做任何人类能够做的事情。例如,它涵盖了推理、规划、解决问题、抽象思维、理解复杂思想、快速学习和从经验中学习等广泛的认知技能和能力。在 2000 年代初,“通用人工智能”这一名词开始流行,用以强调从“狭义 AI”向更广泛的智能概念的追求。但目前 AGI 还没有取得巨大进展。需要注意的是,目前并没有一个被广泛接受的 AGI 定义。
2024-12-23