直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

视频生成有什么方案

回答

以下是一些常见的视频生成方案:

  1. Pika 方案:
    • 生成视频需要进入 generate 频道,目前有 10 个 generate 频道,可任选一个进入。
    • 工作流程包括:直接生成视频,在输入“/create”,然后输入 prompt,得到视频;图片生成视频,使用 MJ/SD 生成图像(可选)+在 PIKA 平台添加 prompt 得到视频。
  2. Phenaki 方案(来自 GoogleBrain):
    • 可以通过文字描述生成可变长度的视频。
    • 主要依赖视频像素生成能力和隐空间 token 预测能力。
    • 视频像素生成能力依赖 VQ-VAE,主要借鉴了 C-ViViT 方法。隐空间 token 预测能力依赖 encoder-only 的双向 transformer 的完形填空能力,主要借鉴了 MaskGIT 方法。
    • C-ViViT 训练第一个阶段参考了 ViViT 的做法,主要用 VQ-VAE 方法训练得到 encoder、码本和 decoder 三个部件。attention 的方式是先做 spatial 的 attention,然后做 temporal 的 attention。C-ViViT 做 patch partition 的时候,先把帧堆叠在一起形成的输入,做没有 overlap 的时间和空间切分。每个 patch 在时间维度上,除了第一帧只有一帧,其余每个 stride 是包含连续的帧。因此第一帧的 patch 小方块大小为,其余 patch 的小方块大小为。经过线性映射层后统一变成了长度为的 feature。一共可以得到的 token 数为个,注意 video 视觉任务比 LLM 的 sequence 要长,因为每一帧都包含大量 patch(例如 256,512)。C-ViViT 把 spatial 和 temporal 的 CLS token 都去掉了,并且增加了 causal transform 的 decoder-only 的 mask,这样可以在计算复杂度不爆表的情况下产生任意长度的。C-ViViT decoder 设计跟 encoder 反过来,先过 temporal 的 attention,然后再是 spatial 的 attention。训练使用 VQ-VAE 方式重建训练,训练结束得到离散的 codebook,这样输入的 video 经过 encoder 转化为离散的 codebook 向量,然后再经过 decoder 得到 pixel 视频。
  3. Sora 方案:
    • 数据准备:使用包括内部数据集和公开数据集在内的多种数据源,对图像和视频进行尺寸调整,包括空间上的抗锯齿双线性缩放和时间上的跳帧处理。
    • 模型训练:基础训练阶段使用正方形图像比例进行训练。在特定数据子集上对基础模型进行微调,以生成 9:16 比例的视频。采用了位置嵌入的插值和窗口尺寸的缩放。
    • 视频生成:首先使用图像 LDM 生成单帧图像。然后运行预测模型,以生成的单帧为条件,生成关键帧序列。在视频扩展时,再次调用预测模型,但以两帧(捕捉方向信息)为条件来生成连贯的运动。
    • 微调与优化:对于长时间视频生成,模型在帧预测任务上进行联合训练。在推断阶段,优化目标是加快小批量图像生成的速度。
    • 模型初始化:由于视频数据集规模相对较小,从预训练的图像模型(如 ViT)初始化视频模型,以促进更有效的训练。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Pika介绍及使用指南

要生成视频,需要进入generate频道,目前有10个generate频道,大家随便选择一个进入即可PIKA生成视频的工作流程:1.直接生成视频:在输入/ create,然后输入prompt,得到视频2.图片生成视频:使用MJ/SD生成图像(可选)+在PIKA平台添加prompt =得到视频

(6)AIGC组成原理(下)

来自GoogleBrain的视频生成方法,可以通过文字描述生成可变长度的视频主要依赖两方面能力视频像素生成能力。依赖VQ-VAE的,主要借鉴了C-ViViT方法隐空间token预测能力。依赖encoder-only的双向transformer的完形填空能力,主要借鉴了MaskGIT方法C-ViViT训练第一个阶段参考了ViViT的做法,主要用VQ-VAE方法训练得到encoder、码本和decoder三个部件attention的方式是先做spatial的attention,然后做temporal的attentionC-ViViT做patch partition的时候,先把帧堆叠在一起形成的输入做没有overlap的时间和空间切分。每个patch在时间维度上,除了第一帧只有一帧,其余每个stride是包含连续的帧。因此第一帧的patch小方块大小为,其余patch的小方块大小为。经过线性映射层后统一变成了长度为的feature一共可以得到的token数为个,注意video视觉任务比LLM的sequence要长,因为每一帧都包含大量patch(例如256,512)C-ViViT把spatial和temporal的CLS token都去掉了,并且增加了causal transform的decoder-only的mask,这样可以在计算复杂度不爆表的情况下产生任意长度的C-ViViT decoder设计跟encoder反过来,先过temporal的attention,然后再是spatial的attention。训练使用VQ-VAE方式重建训练,训练结束得到离散的codebook,这样输入的video经过encoder转化为离散的codebook向量,然后再经过decoder得到pixel视频

Sora 原理解释

在文档中提到的从原始视频数据到模型训练再到模型生成视频的全流程包括以下步骤:数据准备:使用包括内部数据集和公开数据集在内的多种数据源,对图像和视频进行尺寸调整,包括空间上的抗锯齿双线性缩放和时间上的跳帧处理。模型训练:基础训练阶段使用正方形图像比例进行训练。在特定数据子集上对基础模型进行微调,以生成9:16比例的视频。采用了位置嵌入的插值和窗口尺寸的缩放。视频生成:首先使用图像LDM生成单帧图像。然后运行预测模型,以生成的单帧为条件,生成关键帧序列。在视频扩展时,再次调用预测模型,但以两帧(捕捉方向信息)为条件来生成连贯的运动。微调与优化:对于长时间视频生成,模型在帧预测任务上进行联合训练。在推断阶段,优化目标是加快小批量图像生成的速度。模型初始化:由于视频数据集规模相对较小,从预训练的图像模型(如ViT)初始化视频模型,以促进更有效的训练。

其他人在问
国内外好用的图生视频模型
以下是一些国内外好用的图生视频模型: 可灵(国内,免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型。 可以根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 文生视频,支持中文,时空理解。 关于可灵的文生视频效果,测试者 Austin 周安鑫进行了以下测试: 1. 场景识别:包括室内和室外,如客厅的沙发、液晶电视、漂亮的波斯猫、超现实主义的蜿蜒河流、茂密森林、灿烂花海、碧绿草坪等。 2. 物体识别:涵盖静态和动态物体,如水晶球、跳动的火焰、翱翔的飞鸟、闪烁的流星、飞溅的水珠等。 3. 人物识别:包括面部和姿态,如一个人笑容灿烂、一个人惊恐愤怒,一位芭蕾舞女孩在冰面上跳舞等。 4. 动作识别:包含基本和复杂动作,如短跑运动员快速奔跑、赛车手驾驶跑车激烈漂移等。 5. 事件检测:有简单和复杂事件,如一位帅哥在喝水、外星文明和地球进行星际大战等。 6. 环境变化:涉及光线和天气,如奇幻的极光舞动变幻、城市写字楼灯光忽明忽暗、闪电交加、乌云密布、台风、大雨等。 7. 多对象场景:包括单一和多对象场景,如 1 个飞行员驾驶战斗机翱翔太空、海军指挥航母战斗群展开激烈战斗等。 8. 特殊场景:有遮挡和非标准场景,如城市大雾遮挡摩天大楼、一边是神秘海底世界,一边是梦幻糖果屋。 9. 细节检测:包含小物体和微表情,如崭新的苹果电脑屏幕上播放电影、瞳孔收缩、脸颊泛红、嘴唇微微颤抖。
2024-09-19
我想了解 AI 创作视频相关的资料
以下是关于 AI 创作视频的相关资料: 在人员方面,有以下人员从事与 AI 创作相关的工作: 路西:从事 AI 视频创作。 汪汪汪:制作 AI 视频、AI 图文。 大白光:在生活和工作中出图和视频。 kone:从事 AI 商业实战应用,包括 AI 短片、AI 广告、AI 电影、AI MV 等。 一花一世界:从事视频相关工作。 林旭辉:从事视频制作、电商相关工作。 如果想用 AI 把小说做成视频,一般的制作流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 如果您想参加 filMarathon 全球 AI 电影马拉松大赛,以下是一些学习资料和参赛方式: 剧本创作:人力为主,可参考 图片生成:AI 作图绘画,可参考 视频生成:AI 视频生成,可参考 音频生成: AI 音乐创作,可参考 音效创作指导,可参考 语音合成,可参考 剪辑工具:剪映剪辑,可参考
2024-09-19
AI怎么把图片做成视频
以下是将图片制作成视频的几种方法: 1. 使用 PixVerse 网站(https://app.pixverse.ai):涂抹选区,给出相应的运动方向,最后加入配音,剪辑一下即可。 2. 利用快影(需先通过内测申请): 打开快影,选择 AI 创作。 选择 AI 生成视频。 选择图生视频。 上传处理好的图片,填写想要的互动动作和效果,然后点击生成视频,排队等待生成结束后点击下载。 3. 采用 Midjourney 出图结合 AI 视频软件的方法: 使用 Midjourney 垫图加描述出图。 下载“素材”项里的深度图,打开 MJ 官网(https://www.midjourney.com/)上传深度图。 若图片完美可直接生成视频,若有黑边则需下载图片并用 PS 创成式充填处理黑边。
2024-09-19
推荐将线上视频转变成文字的运用
以下是一些将线上视频转换成文字的应用推荐: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,能在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需注意是收费的。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的相关网站可以查看: 另外,为您推荐在线 TTS 工具 Voicemaker(https://voicemaker.in/),它可将文本转换为各种区域语言的语音,并允许创建自定义语音模型,易于使用,适合为视频制作画外音或帮助视障人士。 以上内容由 AI 大模型生成,请仔细甄别。
2024-09-19
有什么工具可以将视频生成脚本
以下是一些可以将视频生成脚本的工具和方法: 1. 工具组合: ChatGPT(https://chat.openai.com/)+剪映(https://www.capcut.cn/):ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频所需场景、角色、镜头等要素,并生成对应素材和文本框架,可快速实现从文字到画面的转化,节省时间和精力。 PixVerse AI(https://pixverse.ai/):在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 Pictory(https://pictory.ai/):AI 视频生成器,用户提供文本描述即可帮助生成相应视频内容,无需视频编辑或设计经验。 VEED.IO(https://www.veed.io/):提供 AI 图像生成器和 AI 脚本生成器,帮助从图像制作视频,并规划内容。 Runway(https://runwayml.com/):AI 视频创作工具,能将文本转化为风格化的视频内容,适用于多种场景。 2. 将小说做成视频的制作流程: 小说内容分析:使用 AI 工具(如 ChatGPT)提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 图像生成:使用 AI 图像生成工具创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,提高视频质量。 审阅与调整:观看生成的视频,根据需要调整,如重新编辑某些场景或调整音频。 输出与分享:完成编辑后,输出最终视频并在所需平台分享。 请注意,具体操作步骤和所需工具可能因项目需求和个人偏好不同而有所差异。此外,AI 工具的可用性和功能可能会随时间变化,建议直接访问工具网址获取最新信息和使用指南。
2024-09-19
有没有把公众号文章转成视频的工具呀
以下是一些可以将公众号文章转成视频的工具: :一个使用人工智能将博客文章转化为播客的工具。用户只需将博客文章复制粘贴到该工具中,几分钟内就能生成一个有声播客。该工具还提供了免费试用和多个价格层级选择。用户无需具备技术知识,可以轻松地将播客发布到 Spotify 等平台,吸引更多的听众。 如果您想用 AI 把小说做成视频,以下是一些相关工具及网址: Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: Clipfly:一站式 AI 视频生成和剪辑平台。网址: VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 故事 AI 绘图:小说转视频的 AI 工具。网址: 以下是一些文字生成视频的 AI 产品: Pika:一款非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 Runway:一款老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,不过需要注意的是,Runway 是收费的。 Kaiber:一款视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2024-09-18
有没有免费ai生成ppt的
以下为您介绍一些免费的 AI 生成 PPT 的工具和相关信息: 1. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,可能提供智能文本生成、语音输入、文档格式化等功能,旨在提高文档编辑效率。网址:https://zhiwen.xfyun.cn/ 2. Gamma:在各种交流群中被频繁推荐,免费版本能生成质量较高的 PPT,且不断优化改进,在内容组织、设计美观度和整体专业感方面表现卓越。 目前市面上大多数 AI 生成 PPT 按照以下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》 另外,为您推荐 3 款好用的 AI 制作 PPT 工具,但请注意内容由 AI 大模型生成,请仔细甄别。
2024-09-19
有没有可以将word生成PPT的
以下是几种将 Word 生成 PPT 的方法: 1. 先让 GPT4 生成 PPT 大纲,然后把大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT。为了让 PPT 更有灵动性和观感,可以让 chatPPT 添加一些动画,最后手动修改细节,比如字体、事实性错误等。但生成符合要求的大纲可能较费时。 2. 大纲出来后,针对每个主题进行内容补充,然后用 mindshow 工具将 markdown 内容转换成 PPT。具体步骤为:在 https://www.mindshow.fun//login?inviteCode=6487516 注册账号登录,把内容复制到内容框后,点击导入创建。 3. 微软发布的将 GPT4 集成到 Office 套件中的一体化解决方案 Copilot ,可以根据 Word 文档直接生成 PPT 。
2024-09-19
有什么免费的AI图片生成工具
以下是一些免费的 AI 图片生成工具: 1. Canva(可画):https://www.canva.cn/ 是一个受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作创建海报,其 AI 功能可协助选择颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 简单易用的设计平台,提供大量设计模板和元素,用户可用 AI 工具创建个性化海报,智能建议功能帮助用户快速找到合适设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子等视觉内容,还集成丰富模板库和自动图像编辑功能。 以下是一些图片生成 3D 建模工具: 1. Tripo AI:VAST 发布的在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型,基于数十亿参数级别的 3D 大模型,实现快速 2D 到 3D 转换,并提供 AI 驱动的精准度和细节。 2. Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成,用户上传图片并描述材质和风格可生成高质量 3D 模型。 3. CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象,再转换为 3D 模型。 4. Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域模型生成,用户上传图片或输入文本提示词生成 3D 模型。 5. VoxCraft:由生数科技推出的免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型,并提供图像到 3D、文本到 3D 和文本到纹理等多种功能。 以下是一些文生图工具: 1. DALL·E:OpenAI 推出的文生图工具,可根据输入文本描述生成逼真图片。 2. StableDiffusion:开源的文生图工具,能生成高质量图片,支持多种模型和算法。 3. MidJourney:因其高质量图像生成效果和用户友好界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您还可以在 WaytoAGI 网站查看更多文生图工具:https://www.waytoagi.com/category/104 请注意,内容由 AI 大模型生成,请仔细甄别。
2024-09-18
有什么根据文字生成图片的AI工具
以下是一些根据文字生成图片的 AI 工具: 1. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,可生成高质量图片,支持多种模型和算法。 3. MidJourney:因高质量的图像生成效果和用户友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您可以在 WaytoAGI 网站(https://www.waytoagi.com/category/104)查看更多文生图工具。 此外,从文本提示生成 2D 图像已经是生成性 AI 广泛应用的领域之一,像 Midjourney(https://www.midjourney.com/home/)、Stable Diffusion(https://stability.ai/blog/stablediffusionannouncement)和 DallE 2(https://openai.com/dalle2/)这样的工具可以从文本生成高质量的 2D 图像,并在游戏生命周期的多个阶段有应用。例如,在概念艺术方面,生成性 AI 工具能帮助非艺术家快速探索概念和想法,生成概念艺术作品,加速创作流程。
2024-09-18
有没有自动生成专利申请文件的平台
以下是一些可以自动生成专利申请文件的平台: 1. Specifio:利用 AI 技术自动生成专利申请文件,包括专利说明书和权利要求书,能提高专利申请的效率。 2. PatentPal:使用 AI 技术自动生成和编辑专利申请文件,可减少人工工作量。 在专利小助手中,还有以下插件可用于相关工作: 1. Kimi:可以用于自动生成专利申请文档的草稿、摘要或专利描述,提高文档撰写效率。 2. TreeMind 树图:可以用来创建专利结构的思维导图,帮助用户理解专利的组成部分和它们之间的关系。 3. ProcessOn 流程图:可以用于设计和展示专利申请和管理的详细流程,帮助用户理解每一步的操作和所需材料。 4. Word 文档:可以用来处理专利申请文件、专利描述、权利要求书等文档。 使用这些平台通常需要以下步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。
2024-09-18
开源的数字人方案
以下是开源的数字人方案: 1. 第一步:先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits克隆声音,做出文案的音频。 2. 第二步:使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址为 https://github.com/Rudrabha/Wav2Lip 。这就是目前的本地跑数字人的方案,效果都差不多,都是用的 wav2lip 。产品为 https://synclabs.so/ 。 3. 构建数字人躯壳:笔者的开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。
2024-09-14
企业内部知识库和 AI 问答结合,有哪些成熟的解决方案,或者产品推荐?
以下是企业内部知识库和 AI 问答结合的一些成熟解决方案和产品推荐: Contextual Answers:这是一个端到端的 API 解决方案,其答案完全基于组织知识,能避免“幻觉”。全球信息服务提供商 Clarivate 与其合作,将其应用于图书馆解决方案套件,为学生、教师和研究人员提供基于策划和可信学术内容的问题答案。 职业规划类产品:结合用户个人情况和市场需求制定详细职业发展计划,包括短、中、长期目标,帮助用户在 AI 时代找到职业定位。其核心构思在于利用企业已有知识积累结合大模型能力,为用户提供准确简洁答案。具体通过创建企业私有知识库收录问答记录和资料,利用大模型处理用户咨询问题,确保回答准确一致,必要时提供原回答完整版,还能对接人工客服,在智能助手无法解决问题时快速转接,提升服务质量和客户满意度。
2024-09-14
有哪些数字人方案
以下是一些常见的数字人方案: 1. 算法驱动的数字人: 开源代码: ASR 语音识别:openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口:https://github.com/Uberi/speech_recognition) AI Agent 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。Agent 部分可以使用 LangChain 的模块去做自定义,里面基本包含了 Agent 实现的几个组件(https://www.langchain.com/) TTS:微软的 edgetts(https://github.com/rany2/edgetts),只能使用里面预设的人物声音,目前接口免费;VITS(https://github.com/jaywalnut310/vits),还有很多的分支版本,可以去搜索一下,vits 系列可以自己训练出想要的人声;sovitssvc(https://github.com/svcdevelopteam/sovitssvc),专注到唱歌上面,前段时间很火的 AI 孙燕姿。 核心算法: ASR(Automatic Speech Recognition,语音识别):能将用户的音频数据转化为文字,便于数字人理解和生成回应。 AI Agent(人工智能体):充当数字人的大脑,可以直接接入大语言模型,强调 Agent 的概念是为了让数字人拥有记忆模块等更加真实。 TTS(Text to Speech,文字转语音):将数字人依靠 LLM 生成的输出文字转换为语音,保持语音交互一致性。 2. 剪映数字人“个性化“—无限免费私模数字人:Heygen 的访问限制太强,正好剪映已经有了声音克隆和公模数字人两项能力,搭配 facefusion 的换脸技术,能轻松实现零成本的口播数字人。
2024-09-12
视频生成有什么方案
以下是一些常见的视频生成方案: 1. Pika 方案: 生成视频需要进入 generate 频道,目前有 10 个 generate 频道,可任选一个进入。 工作流程包括:直接生成视频,在输入“/create”,然后输入 prompt,得到视频;图片生成视频,使用 MJ/SD 生成图像(可选)+在 PIKA 平台添加 prompt 得到视频。 2. Phenaki 方案(来自 GoogleBrain): 可以通过文字描述生成可变长度的视频。 主要依赖视频像素生成能力和隐空间 token 预测能力。 视频像素生成能力依赖 VQVAE,主要借鉴了 CViViT 方法。隐空间 token 预测能力依赖 encoderonly 的双向 transformer 的完形填空能力,主要借鉴了 MaskGIT 方法。 CViViT 训练第一个阶段参考了 ViViT 的做法,主要用 VQVAE 方法训练得到 encoder、码本和 decoder 三个部件。attention 的方式是先做 spatial 的 attention,然后做 temporal 的 attention。CViViT 做 patch partition 的时候,先把帧堆叠在一起形成的输入,做没有 overlap 的时间和空间切分。每个 patch 在时间维度上,除了第一帧只有一帧,其余每个 stride 是包含连续的帧。因此第一帧的 patch 小方块大小为,其余 patch 的小方块大小为。经过线性映射层后统一变成了长度为的 feature。一共可以得到的 token 数为个,注意 video 视觉任务比 LLM 的 sequence 要长,因为每一帧都包含大量 patch(例如 256,512)。CViViT 把 spatial 和 temporal 的 CLS token 都去掉了,并且增加了 causal transform 的 decoderonly 的 mask,这样可以在计算复杂度不爆表的情况下产生任意长度的。CViViT decoder 设计跟 encoder 反过来,先过 temporal 的 attention,然后再是 spatial 的 attention。训练使用 VQVAE 方式重建训练,训练结束得到离散的 codebook,这样输入的 video 经过 encoder 转化为离散的 codebook 向量,然后再经过 decoder 得到 pixel 视频。 3. Sora 方案: 数据准备:使用包括内部数据集和公开数据集在内的多种数据源,对图像和视频进行尺寸调整,包括空间上的抗锯齿双线性缩放和时间上的跳帧处理。 模型训练:基础训练阶段使用正方形图像比例进行训练。在特定数据子集上对基础模型进行微调,以生成 9:16 比例的视频。采用了位置嵌入的插值和窗口尺寸的缩放。 视频生成:首先使用图像 LDM 生成单帧图像。然后运行预测模型,以生成的单帧为条件,生成关键帧序列。在视频扩展时,再次调用预测模型,但以两帧(捕捉方向信息)为条件来生成连贯的运动。 微调与优化:对于长时间视频生成,模型在帧预测任务上进行联合训练。在推断阶段,优化目标是加快小批量图像生成的速度。 模型初始化:由于视频数据集规模相对较小,从预训练的图像模型(如 ViT)初始化视频模型,以促进更有效的训练。
2024-08-29
哪个AI可以做改革方案
以下是一些可以为您提供改革方案的 AI: 1. Character.ai:其愿景是“让地球上的每个人都能获得自己的深度个性化超级智能,帮助他们过上最美好的生活”。每个人都可以拥有像钢铁侠中的 Javis 一样的人工智能助手,能够帮助完成各种任务,重构一切服务。链接: 2. Scite.ai:是为研究人员、学者和行业专业人员打造的创新平台,提供引用声明搜索、自定义仪表板和参考检查等工具,能简化学术工作。链接: 3. Scholarcy:一款科研神器,主要为做科研、学术、写论文的人准备。可以从文档中提取结构化数据,并通过知识归纳引擎生成文章概要,包含关键概念、摘要、学术亮点、学术总结、比较分析、局限等板块的内容。链接: 4. ChatGPT:强大的自然语言处理模型,可以提供有关医学课题的修改意见。链接:
2024-08-27
推荐数字人直播方案
以下为您推荐数字人直播方案: KreadoAI 的使用方法: 1. 点击上面的网址,注册后获得 120 免费 k 币,选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 AI 直播卖货适用品类和场景: 1. 适用于不需要强展示的商品,如品牌食品饮料。服装不太适用,因为过品快,衣服建模成本高。 2. 适用于虚拟商品,如门票、优惠券等。 3. 不适用于促销场景,这涉及主播话术、套路,调动直播间氛围能力等。 4. 电商直播分为达播跟店播,数字人直播跑下来效果最好的是店播,数据基本能保持跟真人一样(朋友公司数据)。 AI 数字人直播盈利方式: 1. 直接卖数字人工具软件。分实时驱动和非实时驱动两类,实时驱动在直播时能改音频话术,真人接管。市面价格在一年 4 6 万往上(标准零售价)。非实时一个月 600 元,效果很差,类似放视频的伪直播,市场价格混乱,靠发展代理割韭菜。 2. 提供数字人运营服务,按直播间成交额抽佣。
2024-08-23