Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

scalinglaw什么意思

Answer

Scaling Law(规模定律)指的是在模型预训练中,只要三个关键因素——模型大小、数据量、训练时间(计算量)不断增长,模型性能就能大斜率指数级爆发式提升。足够的规模带来——“涌现”,即自发地产生复杂智能,完成复杂问题的推理、并形成非同分布下的泛化性提升。

2024 年整年,一个争论笼罩着 AI 界——Scaling Law 是正确的,但在现实中,Scaling Law 是不是已经触及天花板。算力需求已达惊人规模,基础设施跟不上发展速度,优质数据接近极限,合成数据训练存在“近亲繁殖”问题可能导致模型能力长期衰退。

在 OpenAI 的相关研究中,“良好且通用的数据表示,良好且通用的数据标注,良好且通用的算法”为检测 Scaling Law 做好了准备。同时,在 Sora 的研究中,也遵循了 Scaling Law,即在足量的数据、优质的标注、灵活的编码下,Scaling Law 在 transformer+diffusion model 的架构上继续成立,其想法很大程度上沿袭了大语言模型的经验。

Content generated by AI large model, please carefully verify (powered by aily)

References

码观 | 共识与非共识:从模型到应用,2024 AI 趋势回首与展望

技术范式的演进Scaling Law初遇瓶颈Scaling Law效果放缓是2024年贯穿整年的争论。Scaling Law(规模定律)指的是在模型预训练中,只要三个关键因素——模型大小、数据量、训练时间(计算量)不断增长,模型性能就能大斜率指数级爆发式提升。足够的规模带来——“涌现”,即自发地产生复杂智能,完成复杂问题的推理、并形成非同分布下的泛化性提升。相信Scaling Law,是OpenAI的梦幻发展和这一代大模型能力梦幻提升的起点。而2024年整年,一个争论笼罩着AI界——Scaling Law是正确的,但在现实中,Scaling Law是不是已经触及天花板?算力需求已经达到惊人规模,xAI正在建设10万卡数据中心;基础设施跟不上发展速度,OpenAI提出的5吉瓦数据中心计划几乎相当于纽约州五分之一的居民用电量;最关键的是,正如OpenAI前首席科学家Ilya Sutskever所言,优质数据已接近极限。而合成数据训练的“近亲繁殖”问题,更可能过拟合导致模型能力的长期衰退。然而,OpenAI的o系列模型带来了转机。新的Scaling Law——慢思考与快思考人类对AGI的追求,莫不如说是人类对完全创造另一个“人类”的疯狂幻想,而要让模型“思考”,最重要的是“大脑”。研究人员相信,人的思考其实是细微电流通过神经元,因此如果有足够大、足够接近人脑的人工神经网络,它就可以实现人脑的工作——思考。在人类心理学中,诺贝尔经济学奖得主丹尼尔·卡尼曼提出了著名的“系统1”和“系统2”理论:人类的思维过程分为快速、直觉的“系统1”和缓慢、深思熟虑的“系统2”。

GPT、DALL·E、Sora,为什么 OpenAI 可以跑通所有 AGI 技术栈?

而具体来谈,就是我们之前说的「良好且通用的数据表示,良好且通用的数据标注,良好且通用的算法」,在GPT和Sora中都有相应的内容:在GPT中,良好且通用的数据表示,是tokenizer带来的embedding。良好且通用的数据标注是文本清理和去重的一套方法(因为自然语言训练是unsupervised training,数据本身就是标注)。良好且通用的算法就是大家熟知的transformers+autoregressive loss。在Sora中,良好且通用的数据表示,是video compress network带来的visual patch。良好且通用的数据标注是OpenAI自己的标注器给视频详细的描述(很可能是GPT-vision)。良好且通用的算法也是大家熟知的transformers+diffusion「良好且通用的数据表示,良好且通用的数据标注,良好且通用的算法」同时也为检测scaling law做好了准备,因为你总是可以现在更小规模的模型和数据上检测算法的效果,而不用大幅更改算法。比如GPT1,2,3这几代的迭代路径,以及Sora中OpenAI明确提到visual patch使得他们用完全一样的算法在更小规模的数据上测试。公理3:Emerging properties。这条公理其实是一条检验公理:我怎么知道scaling law带来「质变」,而不仅仅是「量变」?答案是:你会发现,随着scaling law的进行,你的模型突然就能稳定掌握之前不能掌握的能力,而且这是所有人能够直观体验到的。

GPT、DALL·E、Sora,为什么 OpenAI 可以跑通所有 AGI 技术栈?

Sora多么牛逼多么真实之类的就不多谈了,只用一句话就能概括:随便拿视频中的一帧出来,效果都不亚于Dalle-3精心生成一张图片,而且这些图片放在一起可以构成基本符合真实世界物理逻辑的视频。而且Sora本身其实也可以做图片生成,只是大材小用了。如果限制必须用一个词来展现OpenAI的最核心的技术,我觉得便是scaling law——即怎么样保证模型越大,数据越多,效果就越好。Sora也不例外。一句话概括Sora的贡献,便是:在足量的数据,优质的标注,灵活的编码下,scaling law在transformer+diffusion model的架构上继续成立。在Sora的技术报告*中可以看出,OpenAI实现scaling law的想法其实很大程度上沿袭了大语言模型的经验。https://openai.com/research/video-generation-models-as-world-simulators[heading3]足量的数据[content]训练Sora用了多少数据?不出意外,OpenAI在整个技术分析中一点都没有提数据的事情,这可太CloseAI了。但是鉴于内容的丰富性(比如甚至可以生成相当连贯一致的Minecraft游戏视频),我猜测很可能是大量的YouTube视频,同时也不排除有合成数据(比如3D渲染等)。未来可能用整个YouTube上的视频来训练视频生成模型,就和大家用Common Crawl训练大语言模型一样。

Others are asking
提示词框架是什么意思
提示词框架是为构建有效提示词提供的一种高度概括和结构化的方法,可看作是构建提示词的方法论或“元结构”。 目前,提示词工程师已发展出多种提示词框架,例如: ICIP 框架:包括指令(Instruction,必须)、背景信息(Context,选填)、输入数据(Input Data,选填)和输出指示器(Output Indicator,选填)四个部分。 BROKE 框架:着重于背景(Background)、角色定义(Role)、目标设定(Objectives)、关键成果展示(Key Result)以及持续的试验与优化(Evolve)五个方面。 CRISPE 框架:分为上下文(Context)、角色(Role)、说明(Instruction)、主题(Subject)、预设(Preset)和例外(Exception)六个部分。 此外,还有一些标识符和属性词用于标识标题、变量、控制内容层级和标识语义结构。结构化提示词框架在行业内应用广泛且成熟度较高,您可以在很多平台看到优秀的案例。如果您对结构化提示词的理论感兴趣,还可以阅读李继刚和云中江树的相关详细理论原文。
2025-02-19
AGI是什么意思
AGI 指通用人工智能。在公众传播层面,部分人觉得大语言模型(LLM)具有 AGI 潜力,LeCun 反对。通用人工智能被定义为一种能够完成任何聪明人类所能完成的智力任务的人工智能。 例如,OpenAI 原计划在 2027 年发布的 Q2025(GPT8)将实现完全的 AGI,但由于埃隆·马斯克的诉讼而被推迟。GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步,而早期的模型则不具备这样的能力。
2025-02-19
compy ui 是什么意思
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,具有以下特点: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势:对显存要求相对较低,启动和出图速度快;具有更高的生成自由度;可以和 webui 共享环境和模型;可以搭建自己的工作流程,能导出流程并分享,报错时能清晰发现错误所在;生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 生图原理: Pixel Space 和 Latent Space:像素空间对应输入图像的像素空间,潜在空间中许多操作都在进行,图像被映射到潜在空间后,扩散过程在这个空间中进行。 扩散过程:噪声的生成和逐步还原,通过调度器控制,可选择不同的调度器控制如何在潜在空间中处理噪声和逐步去噪回归到最终图像,时间步数会影响图像生成的精细度和质量。 基础教程: 应用场景和不可替代性:ComfyUI 的 UI 界面复杂,连线方式类似搭建自动化工作流。从功能角度看,与 SD WebUI 提供的功能相同,只是呈现方式不同。这种连线方式的好处是可以根据需求搭建适合自己的工作流,无需依赖开发者,也能根据需求开发并改造某个节点。选择 ComfyUI 最核心的原因在于其自由和拓展。 案例:生成四格故事漫画。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-17
compy ui 工作流是什么意思
ComfyUI 的工作流包括以下方面: 1. 一般的 Workflow 概念:Workflow 是 ComfyUI 的节点结构及数据流运转过程。 2. 推荐的工作流网站: Openart.ai:流量较高,支持上传、下载、在线生成,免费账户有 50 个积分,加入 Discord 可再加 100 积分,开通最低每月 6 美元的套餐后每月有 5000 积分。 ComfyWorkflows 网站:支持在线运行工作流,实际下载量和访问量略少于 openart。 Flowt.ai:https://flowt.ai/community 3. FLUX 低显存运行工作流: 目的是让 FLUX 模型能在较低显存情况下运行。 分阶段处理思路: 初始生成在较低分辨率下进行以提高效率。 采用两阶段处理,先用 Flux 生成,后用 SDXL 放大,有效控制显存使用。 使用 SD 放大提升图片质量。 工作流流程: 初始图像生成(Flux):包括 UNETLoader 加载 flux1dev.sft 模型、DualCLIPLoader 加载 t5xxl 和 clip_l 模型等步骤。 初始图像预览。 图像放大和细化(SDXL):包括 CheckpointLoaderSimple 加载 SDXL 模型、UpscaleModelLoader 加载 RealESRGAN_x4.pth 用于放大等步骤。 最终图像预览。 4. 换装服饰一致性工作流: 应用场景:电商服饰行业、换装、虚拟试穿等。 整体思路: 首先生成适合服装的模特,很多时候换装效果不好是因为服装和人物不匹配,可抽卡抽到满意模特后进入第二步。 第二步进行高精度换装,先预处理拼出 mask,然后重绘 mask 区域。 模特生成:加入 Redux 模型,强度不用太高,让提示词生效。 服装高精度处理:包括 mask 的处理,使用 Flux 的 fill 模型,提示词书写格式有特定要求,Redux 权重需调整为最大。
2025-02-17
AGI是什么意思
AGI 指通用人工智能。在公众传播层面,它是一种能够完成任何聪明人类所能完成的智力任务的人工智能。部分人觉得大语言模型(LLM)具有 AGI 潜力,但也有人反对,比如 LeCun。OpenAI 原计划在 2027 年发布的 Q2025(GPT8)将实现完全的 AGI,但由于埃隆·马斯克的诉讼而被推迟。GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步,而早期的模型则不具备这样的能力。
2025-02-15
agi是什么意思
AGI 即通用人工智能(Artificial General Intelligence),通常指一种能够完成任何聪明人类所能完成的智力任务的人工智能系统,能够在许多领域内以人类水平应对日益复杂的问题。例如,像 GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步。OpenAI 致力于 AGI 的研发,其开发的 ChatGPT 就是相关成果之一。我们的使命是确保 AGI 造福全人类,从某种意义上说,AGI 是人类进步脚手架上的另一个工具。
2025-02-14