Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生视频

Answer

以下是关于图生视频的相关信息:

什么是图生视频: 输入一张图片和相应的提示词,清影大模型会将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。

图生视频的两个小技巧

  1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。
  2. 提示词要【简单清晰】。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确您想动起来的【主体】,并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确【主体】的描述。

常见的图生视频模型(从高到低排序)及特点

  1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。
  2. luma 1.6:画面质量挺好,但是太贵了。
  3. 可灵 1.6 高品质:YYDS!
  4. 海螺-01-live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。
  5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。
  6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。
  7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!!
  8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。
  9. pixverse v3 高品质:pinverse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。
  10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。

PixVerse V2 使用教程

  1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。
  2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。
  3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:清影

输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。[heading3]👍两个小技巧[content]⚠️技巧1:选用尽可能清晰的图片,上传图片比例最好为3:2(横版),清影支持上传png和jpeg图像如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。⚠️技巧2:提示词要【简单清晰】1️⃣可以选择不写prompt,直接让模型自己操控图片动起来。2️⃣明确你想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现AI狂乱景象)如果你不明确大模型如何理解你的图片,推荐将照片发送到清言对话框进行识图,明确你的【主体】该如何描述。

图生视频

|排序(从高到低)|模型|特点(优缺)||-|-|-||1|pd 2.0 pro|即梦生成的画面有点颗粒感,p2.0模型还是很能打的,很适合做一些二次元动漫特效,。理解能力更强,更适合连续运镜,||2|luma 1.6|画面质量挺好,但是太贵了,真的太贵了。||3|可灵1.6高品质|YYDS!||4|海螺-01-live|文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了||5|runway|我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的||6|智谱2.0|做的一些画面特效听出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。||7|vidu1.5|二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧yyds!就是太贵了!!!!!。||8|seaweed 2.0 pro|s2.0适合动态相对小的,更适合环绕旋转运镜动作小的||9|pixverse v3高品质|pincerse的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。||10|sora|不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。|[p.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/WBMJb6ahLoHFezxlZHPcRfkynJc?allow_redirect=1)

PixVerse V2 使用教程

8s的视频生成需要花费30Credits,5s的视频生成需要花费15Credits,且只能使用PixVerse V2模型,生成时请注意模型选择。目前仅支持16:9画面比例的视频生成。[heading2]文生视频[content]点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。[heading2]图生视频[content]点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。

Others are asking
图生视频工具
以下是为您介绍的图生视频工具相关内容: 市面上的图生视频工具主要有可灵、即梦、Luma等。其核心方法是穷举和不断抽卡,在抽卡过程中调整 prompt,比如设计人物动作、辅助镜头运镜。 清影是一款图生视频工具,输入一张图片和相应提示词,大模型会将图片转变为视频画面。也可以只输入图片,模型自行发挥想象力生成有故事的视频。使用时的技巧包括:选用清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像;提示词要简单清晰,明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。如果不明确模型如何理解图片,可将照片发送到清言对话框进行识图明确主体描述。 在生成新年场景时,可以直接生成 1:1 的新年场景,也可先将角色抠出合成绿幕,再生成没有人物的场景图。创建新年主题场景可输入关键词“新年、中国新年、喜庆热闹、恭喜发财”等得到合适背景。生成图片后选择合适的图并高清放大。 让场景动起来可使用可灵 AI 1.6 图生视频工具,抽卡性价比不错,简单效果一般抽两三次即可。提示词示例:可爱的拟人小鹿拿着红包对你说谢谢老板,非常开心忍不住跳舞,背后下着红包雨。在视频制作中,还结合使用了 Runway 的文本生成视频和 Steerable Motion 技术实现复杂镜头运动,采用首尾帧图生视频技术将多个短镜头拼接成连续长镜头提高画面连贯性和流畅度。
2025-03-16
流程图生成
生成流程图主要有以下两种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形,代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式,只要解决语法抽象写起来麻烦的问题就行。使用 ChatGPT 生成图形语法的生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功,最后测试发现非常完美。 此外,Recraft 也能生成带有长文本图像的流程图解。在其开发过程中包含了很多不同的模型和工作,比如帮助处理数据的模型,由非专业设计师的标注人员和专业设计师参与的标注工作,训练 OCR 模型,新构建的数据集等等。但创建自己的模型存在困难,既需要超强的团队,组建这样的团队很难,而且训练自己的模型也很贵。
2025-03-13
图生视频
以下是关于图生视频的相关信息: 什么是图生视频: 输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 图生视频的两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。 2. 提示词要【简单清晰】: 可以选择不写 prompt,直接让模型自己操控图片动起来。 明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。 常见的图生视频模型及特点(从高到低排序): 1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 2. luma 1.6:画面质量挺好,但是太贵了。 3. 可灵 1.6 高品质:YYDS! 4. 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!! 8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 9. pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 PixVerse V2 使用教程: 1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-03-13
我想知道现在中国网络环境内可以用的最好图片AI,以图生图稳定
目前在中国网络环境内可用的较好的以图生图且较为稳定的 AI 产品有: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格可选,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,关于 Stable Diffusion 还有一些相关的使用技巧和处理步骤: 用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,该放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,如设置 X 轴为提示词相关性,Y 轴为重绘幅度等。绘图时可通过增加提示词、使用画笔工具等进行局部修改和重绘。
2025-03-12
图生文怎么制作
以下是关于图生文制作的详细步骤: 一、Tusiart 简易上手教程 1. 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看帖子中使用的 lora。 4. ControlNet:用于控制图片中的特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和长句。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可留意 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 后,采样次数在 30 40 之间,过多意义不大且慢,过少出图效果差。 11. 尺寸:根据个人喜好和需求选择。 二、Liblibai 简易上手教程 1. 定主题:确定要生成的图片的主题、风格和表达信息。 2. 选择 Checkpoint:依照主题找贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 来控制图片效果和质量,参考广场上的优秀帖子。 4. 设置 VAE:无脑选 840000 那一串。 5. CLIP 跳过层:设成 2 。 6. Prompt 提示词:用英文写想要 AI 生成的内容,单词和短语组合,用英文半角逗号隔开,不管语法和长句。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开,不管语法。 8. 采样方法:一般选 DPM++2M Karras 较多,留意 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 后,在 30 40 之间,过多意义不大且慢,过少出图效果差。 10. 尺寸:根据个人喜好和需求选择。 11. 生成批次:默认 1 批。 三、SD 新手入门图文教程 1. CFG Scale(提示词相关性):决定图像与提示的匹配程度,增加该值会使图像更接近提示,但可能降低图像质量,可用更多采样步骤抵消,一般开到 7 11 ,过高会有粗犷线条和过锐化图像。 2. 生成批次:每次生成图像的组数,一次运行生成图像的数量为“批次×批次数量”。 3. 每批数量:同时生成的图像个数,增加会提高性能但需更多显存,若显存未超 12G ,保持为 1 。 4. 尺寸:指定图像长宽,出图尺寸太宽可能出现多个主体,1024 以上尺寸可能效果不理想,推荐小尺寸分辨率+高清修复(Hires fix) 。 5. 种子:决定模型生成图片时的随机性,初始化 Diffusion 算法起点的初始值,相同参数下应生成相同图片。 6. 高清修复:通过勾选“Highres.fix”启用,默认高分辨率下会生成混沌图像,使用后先按指定尺寸生成再放大,实现高清大图效果,最终尺寸为(原分辨率×缩放系数 Upscale by) 。
2025-03-11
我想大规模进行文生图,然后图生视频,用什么方案比较好
以下是一些大规模进行文生图然后图生视频的方案: 1. 可以选择大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图使用 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。同时,视频中的小部分音效可在网上无版权下载,剪映中也有大量音效可用。 2. 对于视频的大部分片段,可以用 runway(https://app.runwayml.com/)制作,少数片段用即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。登录 runway 账户后,在首页左侧点击“Text/Imagine to Video”,上传图片,更改模型版本、输入提示词、修改生成的视频时长等。 3. 以下是一些图生视频模型的特点(从高到低排序): pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型理解能力更强,更适合连续运镜,适合做一些二次元动漫特效。 luma 1.6:画面质量挺好,但价格昂贵。 可灵 1.6 高品质:表现出色。 海螺01live:文生视频比图生视频更有创意,图生也还可以,但大幅度动作下手部会出现模糊,整体素质不错,价格较贵。 runway:画面质量不算差,适合做一些超现实主义的特效、特殊镜头。 智谱 2.0:画面特效出众,价格便宜,量大,但整体镜头素质稍差。 vidu1.5:适合二维平面动画特效,大范围运镜首尾帧出色,但价格贵。 seaweed 2.0 pro:适合动态相对小、环绕旋转运镜动作小的情况。 pixverse v3 高品质:首尾帧表现好,画面美学风格有待提升。 sora:不好用,文生视频较强,但图生视频抽象镜头多,不建议使用。
2025-03-06
视频制作
在视频制作方面,以下是一些相关信息: 对于 AI 春晚的节目创作,团队成员通过社群临时召集,包括制片人负责影片制作管理,图像创意人员用 AI 生成角色和场景并赋予人物小传,视频制作人员将图像素材进行 AI 图生文工作,编剧撰写剧本,配音和配乐人员负责声音相关工作,剪辑师负责后期剪辑。整个项目得益于“离谱社”账号的素材积累和团队成员的明确分工及高效协作,几乎全部工作由 AI 支持和辅助完成。 如果想用 AI 把小说做成视频,制作流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 在 AI 特效挑战001 杯子里的鲸鱼项目中,视频制作工具可自行选择,如使用可灵 AI 演示,打开可灵 AI 网站(https://klingai.kuaishou.com/),点击图生视频并上传图片,输入提示词时注意加固定镜头。视频剪辑方面,在 PC 端操作时,右上方点击抠像按钮,鼠标选中要处理的素材,把带绿幕的素材放入主视频轨道,打开剪映导入素材,将扣好的绿幕和下方素材合成片段,调整对应参数即可。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-16
文生视频工具
以下是一些文字生成视频的 AI 产品: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 以上工具适用于不同的使用场景和需求,您可以根据自己的具体情况进行选择。更多的文生视频的网站可以查看这里: 关于 Sora,目前还处于测试阶段,未放开使用。GPT4 至今仍存在幻觉严重的问题,换到文生视频工具上,复杂视频的生成牵涉到众多物理世界的因果关系和逻辑推理,可能会出现难以消除的幻觉和逻辑漏洞。马斯克认为特斯拉一年前就有相关能力并已在用,且对 Sora 有所评价。Sora 很惊艳,但自身仍充满挑战,较大可能走到 GPT4 的大瓶颈,全球级的学术大神、产研巨佬均不看好或不屑一顾。在论证其应用价值时,需要深入思考传统产业的运行方式,比如创意内容、短视频、流量分发、电影工业和广告等。
2025-03-16
我想学AI制作视频,怎么去学习?
以下是学习用 AI 制作视频的方法和步骤: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 此外,您还可以参考以下共学课程视频回放: 1. 9 月 5 日:AI 文旅视频赏析,分享老师十三, 2. 9 月 6 日:AI 文旅视频入门,分享老师 WaytoAG 小田,共学文档: 3. 9 月 7 日:AI 文旅视频入门,分享老师 WaytoAG 小田, 4. 9 月 8 日:AI 文旅视频赏析,分享老师白马少年, 5. 9 月 10 日:AI 文旅视频进阶玩法,分享老师 Tonix,顶尖的制作团队黄社长背后的男人TONIX 老师给大家带来: 通过地方特色和文献总结归纳文案的小技巧 10M 通过文案整理归档多人协作方法 5M 特殊表现图片的生成方式技巧 10M 图像动态生成提示词技巧 Deforum 的快速转场制作小技巧 10M AnimateDiff 转场 5M EBS 丝滑转绘的小技巧 10M 首尾帧提示词技巧 使用 AE 制作现阶段无法 AI 呈现的动画动态小技巧 10M 教程 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-16
哪个视频生成软件对汽车生成效果最好
以下是一些在汽车生成效果方面表现较好的视频生成软件: 1. Meta 发布的 Meta Movie Gen 文生视频模型:由视频生成和音频生成两个模型组成。其中视频生成模型是 30B 参数的 Transformer 模型,能从单个文本提示生成 16 秒、16 帧每秒的高清视频,在精确视频编辑和个性化视频方面有出色表现,且在骨干网络架构上沿用了 Llama3 的许多设计。 2. 昆仑万维的 SkyReelsV1 短剧视频生成模型:国内首款专为 AI 短剧创作打造的视频生成模型,具备文生视频和图生视频两大功能,基于好莱坞级别的高质量影视数据训练,拥有电影级的光影美学效果,能生成影视级的人物微表情表演,支持多种人物表情和自然动作组合。使用入口全面开源,可通过 GitHub 获取模型和技术报告,也可通过 SkyReels 平台体验。 3. 阶跃星辰 x 吉利汽车的 StepVideoT2V 视频生成模型:全球参数量最大、性能最强的开源视频生成大模型,在运动平滑性、美感度等关键指标上显著优于现有的开源视频模型。拥有 300 亿参数,能生成 204 帧、540P 分辨率的高质量视频,在复杂运动、美感人物、视觉想象力、基础文字生成、原生中英双语输入、镜头语言等方面表现卓越。使用入口为开源模型(github.com/stepfunai/StepVideoT2V),也可通过跃问 App 进行体验。
2025-03-15
你可以生成视频吗
以下是一些生成视频的方法和相关指南: 1. PixVerse V2: 输入提示词。 上传图片(如无图片上传,可忽略此步骤)。 选择视频时长(支持 5s 和 8s)。 添加新片段: 点击“Scene 1”旁边的“+”,为视频添加第二个片段。 在新片段中,可为其输入不同于 Scene 1 的提示词。 生成视频(每次生成需要花费 30Credits,且默认将所有片段拼接在一起,不支持单片段下载)。 编辑生成的视频: 点击视频进入编辑页面。 视频下方分别为:角色,环境,动作。如生成的视频不满意,可从相应的下拉选项中选择想要的效果。 上方为进度条,通过点击切换 Scene,可一次性对多个 Scene 进行编辑后一起生成。未修改的 Scene,再次生成时也会改变,不会与之前生成的视频保持一致。 2. MorphStudio(网页 UI 版本): 在“Shot”卡中,输入提示并点击蓝色星号图标生成视频,也可以上传图片或视频,并以其他方式生成视频。 等待时间:根据提示以及视频长度和分辨率等因素,各代的等待时间可能从 20 30 秒到几分钟不等。 展开视图/卡片信息:生成完成后,点击卡片右下角的展开图标来查看生成的照片的信息,包括提示、模型和用于该照片的参数。 重新生成视频: 点击生成的视频,会弹出三个图标:重新提示、重新生成和样式转换。 重新提示:可以编辑本视频输入的提示,同时保持使用的所有模型和参数相同。 重试:保留原有的提示和设置,重新生成视频。 风格转换:保留原始视频的构图和动画,同时使用预设来更改视频的风格。 添加/编辑镜头: 添加一个新镜头:点击屏幕左上角的按钮,在时间轴上添加一个镜头。 编辑快照:单击快照卡右上角的“…”图标,可以编辑卡的名称、添加说明,或者保存和删除快照。 3. Adobe 相关: 在 Advanced 部分,使用 Seed 选项添加种子编号,以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。 选择 Generate(生成)。
2025-03-15