直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

知名的视频大模型都有哪些

回答

以下是一些知名的视频大模型:

  • InstructBLIP:基于预训练的 BLIP-2 模型进行训练,在 MM IT 期间仅更新 Q-Former。通过引入指令感知的视觉特征提取和相应的指令,能够提取灵活多样的特征。
  • PandaGPT:是一种开创性的通用模型,能够理解不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。
  • PaLI-X:使用混合 VL 目标和单峰目标进行训练,包括前缀完成和屏蔽令牌完成,对于下游任务结果和在微调设置中实现帕累托前沿有效。
  • Video-LLaMA:引入了多分支跨模式 PT 框架,使 LLM 能够在与人类对话的同时处理给定视频的视觉和音频内容,使视觉与语言以及音频与语言保持一致。
  • 视频聊天 GPT:专门为视频对话设计的模型,能够通过集成时空视觉表示来生成有关视频的讨论。
  • Shikra:Chen 等人介绍的一种简单且统一的预训练 MM-LLM,专为参考对话(涉及图像中区域和对象的讨论的任务)而定制,展示了值得称赞的泛化能力,可以有效处理看不见的设置。
  • DLP:提出 P-Former 来预测理想提示,并在单模态句子数据集上进行训练,展示了单模态训练增强 MM 学习的可行性。
  • 可灵:快手于 2024 年 6 月 6 日发布的视频大模型,能生成超过 120 秒 1080P 视频,模拟真实物理特性,准确建模复杂运动场景,画面连贯,动作流畅,细节真实,支持用户输入控制信息,丰富内容控制能力,采用类 Sora 的 DiT 结构,用 Transformer 代替卷积网络,自研 3D VAE 网络提升视频重建质量。
  • Flamingo:代表了一系列视觉语言(VL)模型,旨在处理交错的视觉数据和文本,生成自由格式的文本作为输出。
  • BLIP-2:引入了资源效率更高的框架,包括用于弥补模态差距的轻量级 Q-Former,实现对冻结 LLM 的充分利用,利用 LLM 可以使用自然语言提示进行零样本图像到文本的生成。
  • LLaVA:率先将 IT 技术应用到 MM 领域,为解决数据稀缺问题,引入了使用 ChatGPT/GPT-4 创建的新型开源 MM 指令跟踪数据集以及 MM 指令跟踪基准 LLaVA-Bench。
  • MiniGPT-4:提出了一种简化的方法,仅训练一个线性层即可将预训练的视觉编码器与 LLM 对齐,能够复制 GPT-4 所展示的功能。
  • mPLUG-Owl:提出了一种新颖的 MM-LLMs 模块化训练框架,结合了视觉上下文,包含一个名为 OwlEval 的教学评估数据集。
  • X-LLM:陈等人扩展到包括音频在内的各种模式,并表现出强大的可扩展性。利用 Q-Former 的语言可迁移性,成功应用于汉藏语境。
  • VideoChat:开创了一种高效的以聊天为中心的 MM-LLM 用于视频理解对话,为该领域的未来研究制定标准,并为学术界和工业界提供协议。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

多模态大模型入门指南-长文慎入【持续更新】

[title]多模态大模型入门指南-长文慎入【持续更新】[heading2]4.多模态大模型总结:[heading3]4.1 26个多模态大模型全面比较:(8)InstructBLIP基于预训练的BLIP-2模型进行训练,在MM IT期间仅更新Q-Former。通过引入指令感知的视觉特征提取和相应的指令,该模型使得能够提取灵活多样的特征。(9)PandaGPT是一种开创性的通用模型,能够理解6不同模式的指令并根据指令采取行动:文本、图像/视频、音频、热、深度和惯性测量单位。(10)PaLI-X使用混合VL目标和单峰目标进行训练,包括前缀完成和屏蔽令牌完成。事实证明,这种方法对于下游任务结果和在微调设置中实现帕累托前沿都是有效的。(11)Video-LLaMA张引入了多分支跨模式PT框架,使LLMs能够在与人类对话的同时同时处理给定视频的视觉和音频内容。该框架使视觉与语言以及音频与语言保持一致。(12)视频聊天GPT Maaz等人。(2023)是专门为视频对话设计的模型,能够通过集成时空视觉表示来生成有关视频的讨论。(13)Shikra Chen等人。(2023d)介绍了一种简单且统一的预训练MM-LLM,专为参考对话(涉及图像中区域和对象的讨论的任务)而定制。该模型展示了值得称赞的泛化能力,可以有效处理看不见的设置。(14)DLP提出P-Former来预测理想提示,并在单模态句子数据集上进行训练。这展示了单模态训练增强MM学习的可行性。

视频模型:可灵

[快手【可灵】大模型介绍PPT](https://waytoagi.feishu.cn/wiki/S1Mswi9PUiV2lskKmutcpzuynfd)生成超过120秒1080P视频模拟真实物理特性(重力、光影反射、液体流动等)准确建模复杂运动场景(高速奔跑的动物、月球行走的宇航员等)画面连贯,动作流畅,细节真实支持用户输入控制信息,丰富内容控制能力类Sora的DiT结构,用Transformer代替卷积网络自研3D VAE网络,提升视频重建质量官网链接https://kling.kuaishou.com/mobile小互报导:🔗 https://xiaohu.ai/p/9119🔗 https://x.om/imxiaohu/status/18040大聪明的技术详解中学生能看懂:快手「可灵」和「Sora」背后DiT技4术https://mp.weixin.qq.com/s/2PrMgNAL0Er_vNjhqSbTHQ

多模态大模型入门指南-长文慎入【持续更新】

[title]多模态大模型入门指南-长文慎入【持续更新】[heading2]4.多模态大模型总结:[heading3]4.1 26个多模态大模型全面比较:如表1所示,对26 SOTA MM-LLMs的架构和训练数据集规模进行了全面比较。随后,简要介绍这些模型的核心贡献并总结了它们的发展趋势。(1)Flamingo。代表了一系列视觉语言(VL)模型,旨在处理交错的视觉数据和文本,生成自由格式的文本作为输出。(2)BLIP-2引入了一个资源效率更高的框架,包括用于弥补模态差距的轻量级Q-Former,实现对冻结LLMs的充分利用。利用LLMs,BLIP-2可以使用自然语言提示进行零样本图像到文本的生成。(3)LLaVA率先将IT技术应用到MM领域。为了解决数据稀缺问题,LLaVA引入了使用ChatGPT/GPT-4创建的新型开源MM指令跟踪数据集以及MM指令跟踪基准LLaVA-Bench。(4)MiniGPT-4提出了一种简化的方法,仅训练一个线性层即可将预训练的视觉编码器与LLM对齐。这种有效的方法能够复制GPT-4所展示的功能。(5)mPLUG-Owl提出了一种新颖的MM-LLMs模块化训练框架,结合了视觉上下文。为了评估不同模型在MM任务中的表现,该框架包含一个名为OwlEval的教学评估数据集。(6)X-LLM陈等人扩展到包括音频在内的各种模式,并表现出强大的可扩展性。利用Q-Former的语言可迁移性,X-LLM成功应用于汉藏语境。(7)VideoChat开创了一种高效的以聊天为中心的MM-LLM用于视频理解对话,为该领域的未来研究制定标准,并为学术界和工业界提供协议。

其他人在问
推荐一款国内不错的AI视频生成软件
以下为您推荐几款国内不错的 AI 视频生成软件: 1. 可灵:在 AI 视频生成领域表现出色,具有以下优势: 卓越的视频生成质量,与国际顶级模型相当,能满足普通用户和专业创作者的需求。 生成速度快,处理效率高于国外同类产品,提升用户工作效率。 对国内用户可访问性强,提供便捷、稳定的使用体验。 2. Hidreamai:有免费额度,支持文生视频、图生视频,提示词使用中文、英文均可,文生视频支持多种控制,可生成 5s 和 15s 的视频。网址:https://hidreamai.com//AiVideo 3. ETNA:由七火山科技开发,可根据简短文本描述生成相应视频内容,生成视频长度 8 15 秒,画质可达 4K,最高 38402160,画面细腻逼真,帧率 60fps,支持中文,时空理解。网址:https://etna.7volcanoes.com/ 此外,还有 Pika、SVD、Runway、Kaiber、Sora 等国内外提供此类功能的产品,您可以根据自己的具体情况进行选择。更多的文生视频网站可查看: 需注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-11-22
如何做一个我自己的AI数字人进行短视频出镜主播
以下是制作您自己的 AI 数字人进行短视频出镜主播的方法: 一、准备视频内容 1. 准备一段视频中播放的文字内容,可以是产品介绍、课程讲解、游戏攻略等。您也可以利用 AI 来生成这段文字。 2. 使用剪映 App 对视频进行处理。电脑端打开剪映 App,点击“开始创作”。选择顶部工具栏中的“文本”,并点击默认文本右下角的“+”号,为视频添加一个文字内容的轨道,然后将准备好的文字内容替换默认文本内容。这将为数字人提供语音播放的内容以及生成相对应的口型。 二、生成数字人 1. 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,例如“婉婉青春”。选择数字人形象时,软件会播放其声音,您可判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中。 2. 剪映 App 会根据提供的内容生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示渲染完成时间,您可点击预览按钮查看生成的数字人效果。 三、增加背景图片 1. 直接删除先前导入的文本内容,因为视频中的音频已包含文字内容。 2. 为视频增加背景图片。点击左上角的“媒体”菜单,并点击“导入”按钮,选择本地的一张图片上传。 3. 点击图片右下角的加号,将图片添加到视频的轨道上(会覆盖数字人)。 4. 点击轨道最右侧的竖线,向右拖拽直到与视频对齐。 5. 选中背景图片所在的轨道,在显示区域拖动背景图的一个角,将图片放大到适合尺寸,并将数字人拖动到合适位置。 另外,您还可以通过以下网站生成虚拟数字人短视频: 1. 打开网站(要科学):https://studio.did.com/editor 2. 输入内容选项,在右侧的文字框里面输入从 ChatGPT 产生的内容,还可以更换想要的头像,选择不同的国家和声音。 3. 内容和人像都选择好之后,点击右上角的 Create Video,等待一段时间生成。生成好数字人视频后,结合产品做讲解即可发布去做视频带货。
2024-11-22
现在哪几家的大模型支持通过手机视频多模态实时交流?
以下几家的大模型支持通过手机视频多模态实时交流: 1. PandaGPT:能够理解不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 2. VideoLLaMA:引入了多分支跨模式 PT 框架,使语言模型能够在与人类对话的同时处理给定视频的视觉和音频内容。 3. 视频聊天 GPT:专门为视频对话设计,能够通过集成时空视觉表示来生成有关视频的讨论。 4. NExTGPT:端到端、通用的 anytoany 多模态语言模型,支持图像、视频、音频、文本的自由输入输出。
2024-11-22
我想要能够爬取我想要的视频的工作流有吗
以下为您提供两种关于视频爬取工作流的信息: 1. Stable Video Diffusion 模型的 ComfyUI 部署实战: 完成准备工作后运行 ComfyUI。 安装 ComfyUI Manager 插件。 下载工作流,使用 ComfyUI 菜单的 load 功能加载。 点击菜单栏「Queue Prompt」开始视频生成,可通过工作流上的绿色框查看运行进度。 生成的视频可在 ComfyUI 目录下的 output 文件夹查看。若出现显存溢出问题,请另行处理。工作流可关注公众号「魔方 AI 空间」,回复【SVD】获取。 2. 来来的 AI 视频短片工作流: 完整文档: 工作流概述: 概念设定:MJ 剧本+分镜:ChatGPT AI 出图:MJ,SD,D3 AI 视频:Runway,pika,PixVerse,Morph Studio 对白+旁白:11labs,睿声 音效+音乐:SUNO,UDIO,AUDIOGEN 视频高清化:Topaz Video 字幕+剪辑:CapCut,剪映 直播回放:
2024-11-21
文字转视频
以下是关于文字转视频的相关信息: 文字生成视频的 AI 产品有: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:可在 Stable Diffusion 图片基础上直接生成视频,是 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多的文生视频的网站可查看: 腾讯运营使用 ChatGPT 实现文字转视频的方法:通过 ChatGPT 生成文案,将文案复制到支持 AI 文字转视频的工具内,从而实现短视频的自动生成。市面上一些手机剪辑软件也支持文字转视频,如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。这类工具操作相对简单,让大众生产视频更轻松。 Adobe Firefly 也有 TexttoVideo 功能,您可以使用文本提示、各种摄像机控制和参考图像来生成 B 卷,无缝填补时间线中的空白。通过详细的提示,还能生成引人注目的插入镜头以在最终项目中使用。例如:“Cinematic closeup and detailed portrait of an elderly man in the middle of a street at night. the lighting is moody and dramatic. The color grade is blue shadows and orange highlights. the man has extremely realistic detailed skin texture and visible pores. movement is subtle and soft. the camera doesn't move. film grain. vintage anamorphic lens.”
2024-11-21
我需要能够帮我找到能根据字幕对应视频剪辑到内容的工具
以下为您推荐一些能够根据字幕对应视频剪辑内容的工具: 1. 剪映:有很多人性化设计和简单的音效库、小特效。但无法协同工作和导出工程文件,难以达到更好的商业化效果。其剪辑流程包括视频粗剪、定剪、音效/音乐、特效、包装(如字幕)等环节。 2. Reccloud:免费的在线 AI 字幕生成工具,可直接上传视频精准识别,能翻译字幕并生成双语字幕,处理视频数量多,识别准确率高。 3. 绘影字幕:一站式专业视频自动字幕编辑器,提供字幕制作和翻译服务,支持多种语言,准确率高,可自定义字幕样式。 4. Arctime:能对视频语音自动识别并转换为字幕,支持自动打轴,支持主流平台和多种字幕功能。 5. 网易见外:国内知名语音平台,支持视频智能字幕功能和音频转写,转换正确率较高。 您可以根据自身需求选择适合的工具。
2024-11-21
Midjourney生成知名动漫或卡通形象受限制了么?
Midjourney 在生成知名动漫或卡通形象时存在一定的限制。例如,在生成角色方面,最好不要生成过多角色,过多甚至可能指 2 个。做人、做动物的情况还好,但对于有拟人角色需求的情况,可能难以生成满意的结果。比如小龙喷火到小兔子举着的礼物盒这种看似简单的需求,可能无法达到满意效果,可能出现动物不拟人或龙的体型超大等情况。对于像中国龙这种数据样本较少的形象,生成符合要求的图很有挑战性。 在视频生成方面,如果想让角色做出一些较大的动作,比如转头、掉眼泪、抬手或更生动的表情变化,现有的技术还不够成熟,还需要更先进的技术、更丰富的数据和更强大的计算能力。此时的策略是尽量规避制作需要大动作表现的视频,如果实在避免不了,可以尝试制作一些只涉及小动作的场景,然后通过加入台词和场景描述来补充细节和深度,帮助观众更好地理解场景背景和角色心理,以弥补视觉上的不足。
2024-10-29
请帮我列举一下国内外知名的ai产品
以下是国内外知名的 AI 产品分类列举: 生成 Logo 的 AI 产品: 1. Looka:在线 Logo 设计平台,使用 AI 理解用户品牌信息和设计偏好,生成多个设计方案供选择和定制。 2. Tailor Brands:AI 驱动的品牌创建工具,通过用户回答问题生成 Logo 选项。 3. Designhill:其 Logo 制作器使用 AI 技术创建个性化 Logo 设计,用户可选择元素和风格。 4. LogoMakr:提供简单易用的 Logo 设计工具,用户可拖放设计,利用 AI 建议的元素和颜色方案。 5. Canva:广受欢迎的在线设计工具,提供 Logo 设计模板和元素,有 AI 辅助设计建议。 6. LogoAI by Tailor Brands:Tailor Brands 推出的 AI Logo 设计工具,根据输入快速生成方案。 7. 标小智:中文 AI Logo 设计工具,利用人工智能技术帮助创建个性化 Logo。 制作 PPT 的 AI 产品: 1. Gamma:在线 PPT 制作网站,通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体。 2. 美图 AI PPT:由美图秀秀团队推出,通过输入文本描述生成专业 PPT 设计,有丰富模板库。 3. Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能,如自动布局、图像选择和文本优化等。 健身的 AI 产品: 1. Keep:中国最大的健身平台,提供全面健身解决方案。 2. Fiture:集硬件、课程内容、明星教练和社区于一体。 3. Fitness AI:利用人工智能进行锻炼,增强力量和速度。 4. Planfit:提供家庭训练与 AI 健身计划,AI 教练使用大量文本数据和 ChatGPT 实时指导。
2024-08-14
siri是不是使用大模型技术
Siri 目前并非使用大模型技术。苹果公司的 Siri 概念虽好,但由于技术限制,其表现未达到人工智能的水平,常被称为“人工智障”。不过,随着技术发展,未来可能会用大模型重新改造 Siri,将手机上的所有功能控制起来,使其成为真正的智能助理。例如,苹果公司在手机算力的芯片发展到能够支撑大模型上手机的情况下,可能会推出大模型的小数据量、专业的版本来替代 Siri。同时,苹果公司若 All in 手机,其大模型可能会是本地化的,以重视个人数据保护和隐私。
2024-11-21
sairi是不是使用大模型技术
Sora 是使用大模型技术的。周鸿祎认为 Open AI 训练这个模型会阅读大量视频,大模型加上 Diffusion 技术需要对世界进一步了解,学习样本以视频和摄像头捕捉到的画面为主。Sora 在训练数据上采用在原始尺寸上进行训练的策略,避免了传统 AI 对人为抽象的依赖。此外,Sora 还采用了一些数据预处理技术,如将视觉图块压缩成低维潜在表示,并将其排列成序列,注入噪声后输入扩散变换器的输入层,同时采用时空分块化来降低后续对时间信息建模的复杂性。这种对原始视频和图像特征的细腻处理标志着生成模型领域的重大进步。
2024-11-21
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
企业做自己的小模型,需要用到的工具及工具背后的公司都有哪些?
企业做自己的小模型,可能会用到以下工具及背后的公司: 1. 在编排(Orchestration)方面,涉及的公司如 DUST、FIAVIE、LangChain 等,其提供的工具可帮助管理和协调各部分及任务,确保系统流畅运行。 2. 部署、可扩展性和预训练(Deployment, Scalability, & PreTraining)类别中,像 UWA mosaicm、NMAREL、anyscale 等公司提供的工具,有助于部署模型、保证可扩展性及进行预训练。 3. 处理上下文和嵌入(Context & Embeddings)的工具,相关公司有 TRUDO、Llamalndex、BerriAI 等,能帮助模型处理和理解语言上下文,并将词语和句子转化为计算机可理解的形式。 4. 质量保证和可观察性(QA & Observability)方面,例如 Pinecone、drant、Vald 等公司提供的工具,可确保模型表现并监控其性能和状态。 此外,还有以下工具和相关公司: 1. 图片生成 3D 建模工具,如 Tripo AI(由 VAST 发布)、Meshy、CSM AI(Common Sense Machines)、Sudo AI、VoxCraft(由生数科技推出)等。 企业还可能涉及具身智能、3D 眼镜、AI 绘本、AI 图书、学习机、飞书的多维表格、蚂蚁的智能体、Coze 的智能体、Zeabur 等云平台、0 编码平台、大模型(通义、智谱、kimi、deepseek 等)、编程辅助、文生图(可灵、即梦等)等方面,可能需要相应资质。
2024-11-20
你认为目前最好用的大模型有哪些?
目前最好用的大模型包括: 1. OpenAI 的 GPT4:是最先进和广泛使用的大型语言模型之一,在多种任务上表现卓越,如文本生成、理解、翻译及各种专业和创意写作任务,能通过大量数据学习理解和生成人类语言,处理复杂问题和理解上下文能力出色。 2. Anthropic 公司的 Claude 3。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型。 大型模型主要分为两类: 1. 大型语言模型:专注于处理和生成文本信息。 2. 大型多模态模型:能够处理包括文本、图片、音频等多种类型的信息。 大型多模态模型与大型语言模型的不同点: 1. 处理的信息类型不同:大型语言模型专注于文本,大型多模态模型能处理多种类型信息。 2. 应用场景不同:大型语言模型主要用于自然语言处理任务,大型多模态模型应用领域更广泛。 3. 数据需求不同:大型语言模型依赖大量文本数据训练,大型多模态模型需要多种类型数据训练。 此外,如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。需注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-19