Pika 和 Pixverse 等生成视频的平台生成的视频通常只有几秒钟,主要是由于以下几个原因:
生成高质量视频需要大量计算资源,尤其是当使用复杂的AI模型时。生成较长的视频会显著增加计算时间和资源消耗。因此,这些平台通常会限制视频的长度,以确保能够在合理的时间内生成高质量的视频。
AI生成视频的模型(例如基于生成对抗网络 GAN 或 Transformer 的模型)在处理长序列数据时会面临挑战。生成短视频可以有效地减少模型训练和推理的复杂度,同时保持视频的质量和连贯性。
短视频更容易快速生成和查看,提升了用户体验。用户可以在较短的时间内获得结果,并根据需要进行调整和优化。此外,短视频更适合社交媒体和营销等应用场景,这些场景通常要求视频长度在几秒到几分钟之间。
短视频文件较小,更容易进行数据传输和存储。对于在线平台来说,这有助于减少带宽和存储成本,提高平台的响应速度和可靠性。
许多平台提供生成短视频的免费或低成本版本,以吸引用户。如果用户需要生成更长的视频,可能需要购买高级订阅或额外的服务。这种商业策略有助于平台实现盈利。
Pika 专注于自动生成短视频,通常用于快速生成营销视频或社交媒体内容。其生成的视频通常在几秒钟到几十秒之间,以便快速满足用户需求并适应平台限制。
Pixverse 也采用类似的策略,生成的短视频主要用于展示AI生成视频的能力和效果。短视频易于快速查看和分享,适合宣传、教育和社交媒体等应用场景。
如果你需要生成更长的视频,可以考虑以下方法:
通过这些方法,你可以克服生成视频长度的限制,创建更长、更连贯的视频内容。
Sora出来以后,几乎没有人能安心地只生成4秒镜头的视频了。虽然Sora还没有公测,仅以Sora案例视频的演示效果来看,大家都在开玩笑地说,Sora之前的AI视频生成叫做4s时代,或者也可以叫前Sora时代了。不过最近又在传Sora这不行那不行,不知道是为了博眼球显摆自己懂得多还是真有其事,我没用过、不懂算法,门外汉,纯瞎猜。但其实只要Sora图生视频的能力能比现有的AI视频产品强,经历过4s时代的创作者,应该还是能比较好地去适应Sora可能会出现的局限性,并受益其中。主要还是,现在局限真的太多了。一边抽卡一边骂自己怎么还在抽4秒视频的我,最终还是和Zoik一起硬着头皮做完了新片子,因为这次做的是一段和我自己有关的真实经历。这个短片的名字叫奇遇书屋(SOULHOME),大家可以先睹为快,或者往后先看完背后故事再看片子,都可以。AI短片《奇遇书屋》(SOULHOME)这个小短片改编自我14岁时的一段真实经历,很开心能把它实现出来。用到的AI工具有Midjourney/Pika/Pixverse/Runway/SVD等等。具体的制作流程,视频号主页的公众号里有写,希望你喜欢~短片源起:
点击工具的蓝字可跳转官网|[Runway](https://runwayml.com/)|Runway在真实影像方面质感是最好的,战争片全景的镜头处理得最好,以及Runway的控件确实目前体验感也比较好,但Runway就是特别爱变色,光影非常不稳定|控制能力最强,可指定局部对象设置运动笔刷|<br>|-|-|-|<br>|[Pixverse](https://pixverse.ai/)|Pixverse在高清化方面是四家里比较优势的,以及对于一些偏风景和纪录的、有特定物体移动的画面会非常友好|能力全面,个人比较喜欢用的一款,缺点是同时只能进行4个任务|<br>|[Haiper](https://haiper.ai/)|默默无闻、且只能生成2s,但这次却意外的有很多不错的镜头,稳定性很强|优点是没有并发任务限制,我用RPA优先刷Haiper|<br>|[Pika](https://pika.art/)|Pika对于奇幻感比较强的画面把控是几家里最好的,会比较自然,但真实环境的画面比较容易糊,Pika还有嘴型同步功能|对二次元友好|
随着2022年11月ChatGPT的发布,我们在2023年见证了商业文本到图像产品的出现,如Stable Diffusion[19]、Midjourney[20]、DALL-E 3[21]。这些工具使用户能够用简单的文本提示生成高分辨率和高质量的新图像,展示了AI在创意图像生成方面的潜力。然而,从文本到图像过渡到文本到视频由于视频的时间复杂性而具有挑战性。尽管工业界和学术界做出了许多努力,但大多数现有的视频生成工具,如Pika[22]和Gen-2[23],仅限于生成几秒钟的短视频片段。在这种背景下,Sora代表了一个重大突破,类似于ChatGPT在NLP领域的影响。Sora是第一个能够根据人类指令生成长达一分钟的视频的模型,标志着对生成式AI研究和开发产生深远影响的里程碑。为了便于轻松访问最新的视觉生成模型进展,最新的作品已被汇编并提供在附录和我们的GitHub中。