以下是一些可以将静态图生成动态图的工具:
LivePortrait可以精确控制眼睛和嘴唇的动作,还能无缝拼接多个肖像,将不同人物特征合并成一个视频,确保过渡自然流畅。因为使用了一种不同于主流扩散方法的隐式关键点框架。该框架在计算效率和可控性之间取得了有效的平衡。LivePortrait生成的动画质量优于现有的非扩散和扩散模型方法。在RTX 4090 GPU上,生成速度为每帧12.8毫秒,效率显著高于现有的扩散模型。静态肖像变得生动的视频生成技术,控制非常精准。这项技术对AI视频生成中的人物表演和数字人具有很大帮助。支持各种风格的图片,常见的动物面部迁移,并可以微调面部运动幅度工作流与模型地址https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycyhttps://pan.quark.cn/s/8dfd7ace4f05内容依技术发展更新,请以文档为准https://xiaobot.net/post/74238a84-d273-4b2c-a195-ed2858b24ffe
先上传一个视频和一张角色图像,Viggle会自动将视频的动态赋予给这个角色,形成一段新视频。而且Viggle并非只能生成简单的正面动作,它能模拟出角色的3D状态,这样即使原视频中有身体旋转、四肢交叠等动作,Viggle也能准确进行还原处理。(也可以利用现有的模版视频作为动作获取来源)[heading2]2、Multi(多人模式)[content]同样通过视频的动作,将上传的多个角色进行识别并赋予给这个角色,形成一段新视频。[heading2]3、Move(将视频的动作直接映射在图片人物身上)[content]不同于Mix的图片元素替换原视频内容,Move主要是通过将动作映射在图像里面的人物身上,实现“让静态图动起来”。[heading2]案例:[content][Rane.m4v](https://bytedance.feishu.cn/space/api/box/stream/download/all/Y26ybfOKGo7K3JxVfQScWmaCnre?allow_redirect=1)结合Midjourney制作图片再
[小互](https://x.com/imxiaohu):https://x.com/imxiaohu/status/1771173928591093940兄弟们,又出来个牛P玩意阿里那个被截胡了,这个直接能用可以直接通过文字描述让任何静态图动起来,而且能做各种动作,跳舞什么的都是小case...最牛P的是,他们的模型能能理解真实世界的物理运动原理,所以出来的视频很真实。不仅如此,它还能直接文字生成视频,进行各种角色混合和动作替换...其核心技术基于JST-1模型。JST-1是首个具有实际物理理解能力的视频-3D基础模型,能够根据用户的需求,让任何角色按照指定的方式进行运动。核心功能:1、可控制的视频生成:用户可以通过文字描述指定角色的动作和场景的细节,Viggle将根据这些指示生成视频。2、基于物理的动画:JST-1模型的一个显著特点是其对物理原理的理解,这意味着生成的视频不仅看起来真实,而且角色的动作和互动符合实际物理规律。这提高了视频的质量和真实感。3、3D角色和场景创建:Viggle不仅限于传统的2D视频制作,它还能够创建3D角色和场景。