直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

DIT架构

回答

DiT 架构是一种在 AI 领域,特别是在 3D 模型生成和视频生成中应用的架构。

在 3D 模型生成方面,Rodin Gen-1 采用了 DiT 架构,其拥有超过 1.5B 参数量,能够在数秒内生成带规整四边面片与 PBR 材质的 3D 资产,是目前最接近 Production-Ready 的通用 3D 生成大模型。

在视频生成方面,Sora 为了更好地扩大模型规模,采用了 DiT 架构,其操作的是视频和图像隐代码的时空块(spacetime patch),会将视觉输入表示成一个时空块序列,并将这些时空块用作 Transformer 输入 token。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

工具汇总:AI生成3D模型工具介绍

Rodin Gen-1采用Diffusion Transformer(DiT)架构,拥有超过1.5B参数量,能够在数秒内生成带规整四边面片与PBR材质的3D资产,是目前最接近Production-Ready的通用3D生成大模型。https://hyperhuman.deemos.com/rodin

Lilian Weng|视频生成的扩散模型

SSR和TSR模型都基于在通道方面连接了有噪声数据𝐳_𝑡的上采样的输入。SSR是通过双线性大小调整来上采样,而TSR则是通过重复帧或填充空白帧来上采样。Imagen Video还应用了渐进式蒸馏来加速采样,每次蒸馏迭代都可以将所需的采样步骤减少一半。在实验中,他们能够将所有7个视频扩散模型蒸馏为每个模型仅8个采样步骤,同时不会对感知质量造成任何明显损失。为了更好地扩大模型规模,Sora采用了DiT(扩散Transformer)架构,其操作的是视频和图像隐代码的时空块(spacetime patch)。其会将视觉输入表示成一个时空块序列,并将这些时空块用作Transformer输入token。图5:Sora是一个扩散Transformer模型。

Lilian Weng|视频生成的扩散模型

图2:3D U-net架构。该网络的输入是有噪声视频z_𝑡、条件信息c和对数信噪比(log-SNR)λ_𝑡。通道乘数M_1,...,M_𝐾表示各层的通道数量。Ho,et al.在2022年提出的Imagen Video基于一组级联的扩散模型,其能提升视频生成的质量,并将输出升级成24帧率的1280x768分辨率视频。Imagen Video架构由以下组件构成,总计7个扩散模型。一个冻结的T5文本编码器,用以提供文本嵌入作为条件输入。一个基础视频扩散模型。一组级联的交织放置的空间和时间超分辨率扩散模型,包含3个TSR(时间超分辨率)和3个SSR(空间超分辨率)组件。图3:Imagen Video的级联式采样流程。在实践中,文本嵌入会被注入到所有组件中,而不只是基础模型中。基础去噪模型使用共享的参数同时在所有帧上执行空间操作,然后时间层将各帧的激活混合起来,以更好地实现时间一致性;事实证明这种方法的效果优于帧自回归方法。图4:Imagen Video扩散模型中一个空间-时间可分离模块的架构。

其他人在问
文生图中DiT架构比SDXL架构好在哪
DiT 架构相比 SDXL 架构具有以下优势: 1. Scaling 能力:相比于 Unet,Transformer 结构的 Scaling 能力更受认可,即模型参数量越大,性能越强。 2. 额外信息处理:DiT 在 Vision Transformer 模块基础上做了略微修改,能够在图片生成过程中接受一些额外的信息,如时间步 t 和标签 y。 3. 场景模拟真实性:Sora 背后的 DiT 架构在大数据量情况下具有强大的刻画能力,能展现出类似大语言模型涌现出逻辑推理等能力的现象。 4. 文本编码器:在提升文生图模型的语义理解能力方面,新的文生图模型纷纷优化文本编码器的能力,而 HunyuanDiT 作为使用 DiT 架构的模型,在中文生图方面有一定进展,但开源界中文、细粒度文生图模型的文本编码器仍有较大优化空间。
2024-08-20
有没有RAG 基本架构的中文图示
以下是关于 RAG 基本架构的介绍: RAG 是当今大多数现代人工智能应用程序的标准架构。以 Sana 的企业搜索用例为例,其工作原理如下: 1. 应用程序加载和转换无结构文件(如 PDF、幻灯片、文本文件),跨越企业数据孤岛(如 Google Drive 和 Notion),通过数据预处理引擎(如 Unstructured)转换为 LLM 可查询格式。 2. 这些文件被“分块”成更小的文本块,作为向量嵌入并存储在数据库(如 Pinecone)中,以实现更精确的检索。 3. 当用户提出问题时,系统检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM。 4. LLM 从检索到的上下文中合成答复返回给用户。 RAG 的基本概念: RAG 是一种结合了检索和生成的技术,能让大模型在生成文本时利用额外的数据源,提高生成的质量和准确性。其基本流程为: 首先,给定用户输入(如问题或话题),RAG 从数据源中检索出相关文本片段(称为上下文)。 然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),输入通常包含提示,指导模型生成期望输出(如答案或摘要)。 最后,从大模型的输出中提取或格式化所需信息返回给用户。
2024-10-17
怎们架构专属自己企业的AI系统
要架构专属自己企业的 AI 系统,可以参考以下步骤: 一、逐步搭建 AI 智能体 1. 搭建整理入库工作流 新建工作流「url2table」,根据弹窗要求自定义工作流信息。 工作流全局流程设置需根据实际需求进行。 2. 在外层 bot 中封装工作流,完成整体配置 创建 Bot。 填写 Bot 介绍。 切换模型为“通义千问”,测试下来通义对提示词理解和执行效果较好。 把配置好的工作流添加到 Bot 中。 新增变量{{app_token}}。 添加外层 bot 提示词(可按需求和实际效果优化调整)。 二、相关术语 以下是一些在 AI 系统架构中可能涉及的术语: 1. AI 或 AI 系统或 AI 技术:具有“适应性”和“自主性”的产品和服务,如在定义的第 3.2.1 节中所述。 2. AI 供应商:在 AI 系统的研究、开发、培训、实施、部署、维护、提供或销售中发挥作用的任何组织或个人。 3. AI 用户:使用 AI 产品的任何个人或组织。 4. AI 生命周期:与 AI 系统的寿命相关的所有事件和过程,从开始到退役,包括其设计、研究、培训、开发、部署、集成、操作、维护、销售、使用和治理。 5. AI 生态系统:在 AI 生命周期中实现 AI 使用和供应的复杂网络,包括供应链、市场和治理机制。 6. 基础模型:在大量数据上训练的一种 AI 模型,可适用于广泛的任务,可作为构建更具体 AI 模型的基础。 经过上述配置,您可以在「预览与调试」窗口与 AI 智能体对话并使用全部功能。
2024-09-11
输入文字,生成组织架构图
以下是一些可以用于生成组织架构图的工具: 1. PlantUML:这是一个文本到 UML 的转换工具,通过编写描述性文本可自动生成序列图、用例图、类图等,能帮助创建逻辑视图。 2. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 3. Archi:免费的开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图的创建。 4. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包含逻辑视图和部署视图。 需要注意的是,这些工具并非都基于 AI。AI 在绘图工具中的应用通常涉及智能推荐布局、自动生成图表代码或识别图表中的模式和关系。在选择工具时,应考虑具体需求,如是否需要支持特定建模语言、与特定开发工具集成、偏好在线工具或桌面应用程序等。 另外,增强版 Bot 是基于 AI 驱动的智能创作平台,可实现一站式内容生成(包括图片、PPT、PDF)。在图片理解与生成场景中,在对话框输入诉求即可测试效果,比如生成常见的系统架构风格架构设计图,给出一张图片。通过简短的文本就能让 Bot 生成相应的图片,这背后是文本到图片或视频等其他格式内容的映射关系,在日常工作中使用便捷。当然,也可以根据图片提取里面的关键知识内容。
2024-09-03
Agents协作的系统架构图应该怎么画
以下是关于绘制 Agents 协作的系统架构图的一些参考信息: 首先,了解 Agent 的基本框架,即“Agent = LLM + 规划 + 记忆 + 工具使用”。其中大模型 LLM 扮演了 Agent 的“大脑”。 规划方面,主要包括子目标分解、反思与改进。子目标分解能将大型任务分解为较小可管理的子目标来处理复杂任务,反思和改进则可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。 记忆分为短期记忆和长期记忆。短期记忆是将所有的上下文学习看成利用模型的短期记忆来学习;长期记忆提供了长期存储和召回信息的能力,通常通过利用外部的向量存储和快速检索来实现。 工具方面,不同的任务和场景需要选择合适的工具。 在生成式 AI 的人机协同中,分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)3 种产品设计模式,人与 AI 的协作流程有所差异。在 Agents 模式下,AI 完成大多数工作。 可以通过 Multiagent Collaboration 的方法,让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如,作为产品经理角色,可将产品功能设计需求通过 Agents 拆解成多个独立的任务,然后遵循不同的工作流,最后生成一份大致符合期望的输出结果,再进行修改完善。 此外,还可以参考一些实例探究,如提示 LLM 提供 100 个最新观察结果,并根据这些观测/陈述生成 3 个最重要的高层次问题,然后让 LLM 回答这些问题。规划和反应时要考虑主体之间的关系以及一个主体对另一个主体的观察,环境信息以树形结构呈现。
2024-08-18
大模型的架构
大模型的架构主要包括以下几种: 1. Encoderonly:通常适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 2. Encoderdecoder:结合了 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是谷歌的 T5。 3. Decoderonly:更擅长自然语言生成任务,众多 AI 助手采用此结构,如 ChatGPT。这些架构均由谷歌 2017 年发布的论文“attention is all you need”中提出的 Transformer 衍生而来,Transformer 包括 Encoder 和 Decoder 两个结构。目前的大型语言模型多为右侧只使用 Decoder 的 Decoderonly 架构。 大模型的特点在于: 1. 预训练数据非常大,往往来自互联网,包括论文、代码、公开网页等,先进的大模型一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 此外,运行几百亿个参数的大模型,存算一体的架构是较好的选择,因其避免了数据搬运。当前大模型在通用知识方面表现出色,但对专业领域知识了解有限,将领域知识结合进大模型是阻碍其更大规模应用的关键问题。把大模型和私域知识结合的方法按对模型改造侵入性从左到右分为:重新训练(拿私域数据重新训练大模型)、微调(拿私有数据 finetuning 大模型)、RAG(将知识库里的知识搜索送进大模型)、关键词工程(写好提示词)、加长 Context(当 Context 能无限长时,可将私域知识和记忆 prefill 进去)。
2024-08-16