图生视频是指将一张图片通过输入相应的提示词或利用特定模型转变为视频画面的过程。以下是一些关于图生视频的知识和技巧:
输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。[heading3]👍两个小技巧[content]⚠️技巧1:选用尽可能清晰的图片,上传图片比例最好为3:2(横版),清影支持上传png和jpeg图像如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。⚠️技巧2:提示词要【简单清晰】1️⃣可以选择不写prompt,直接让模型自己操控图片动起来。2️⃣明确你想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现AI狂乱景象)如果你不明确大模型如何理解你的图片,推荐将照片发送到清言对话框进行识图,明确你的【主体】该如何描述。
剧本中的两位主人公,共3个形象,分别是年轻船员:开朗积极、充满好奇;老船长:经验丰富、坚韧不拔,以及老船长年轻时候的形象。通过性格特征和时代背景,描绘人物的提示词、上传角色参考图--cref,最后将角色背景扣除以便于进行角色加背景的融合生成时进行垫图操作。以老船长年轻形象为例,生成了全身、半身、侧身多角度人物图。根据剧本创作,场景主要概括为三个场景部分,分别是海上、沙漠、市集。提示词从剧本中的画面描述进行提取。生成过程均采用文生图模式,画面风格选择前准备好的风格图进行垫图。上传角色图、场景背景进行参考生成,使得人物和场的融合度更高。通过以上阶段,我们的台词、剧本、风格、人物形象、画面场景就都确立好啦。小插曲:感谢团队小伙伴积极投入在本次创作中,分工明确,协同并进,最终产出一份较为满意的作品。当然最最最可爱且重要的是:留下关注、收藏、认知看完文章的你~现在画面静态图片有了,那么接下来该让图片动起来了吧......使用即梦进行图生视频,只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可。能生成时长为3秒钟的画面。运镜类型可根剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度根据我们的视频节奏,选择了慢速。生成效果:下方这类由图片+简单提示词生成出的3秒时长的短视频。[2058d81834f871ef80020764a0ec0102.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/VFW1bOnqGoGGldxZbyAciduhnNd?allow_redirect=1)
图片是用Midjourney生产,AI离谱村黄社长的业务水平很高,也很高产,其他小伙伴打辅助欢迎关注小红书:AI离谱社,寻找更多离谱灵感[heading2]图生视频[content]每张图片转视频都进行了大量的尝试。各种工具轮番上场pika,runway,Pixverse经常会抽到离谱的又符合离谱村的卡[_seed4262149903300367.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/ExUzbkev8oo8UTxoMoFcpQaNnZb?allow_redirect=1)中间还找了ZHO来做技术指导,他帮忙用SVD1.1出来几个精美的视频,甚至还上了stablevideo.com的首页官方推荐。今天已经公测了,大家打开首页就可以看到这个视频[19_1707280129(原视频).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/O5aKbZ6PEof6tUx0ZaqcSXX0ncc?allow_redirect=1)[heading2]配音部分[content]其中的配音都是用Audiobox捏出来的,每个人物角色都有自己的专属声音。会把捏好的声音管理起来,大家一起选最合适的那个作为正式配音。为了离谱熊声线的一致性,用了GPT-sovits对离谱熊的声音做了专属的训练。