Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生视频工具

Answer

以下是为您介绍的图生视频工具相关内容:

  • 市面上的图生视频工具主要有可灵、即梦、Luma等。其核心方法是穷举和不断抽卡,在抽卡过程中调整 prompt,比如设计人物动作、辅助镜头运镜。
  • 清影是一款图生视频工具,输入一张图片和相应提示词,大模型会将图片转变为视频画面。也可以只输入图片,模型自行发挥想象力生成有故事的视频。使用时的技巧包括:选用清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像;提示词要简单清晰,明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。如果不明确模型如何理解图片,可将照片发送到清言对话框进行识图明确主体描述。
  • 在生成新年场景时,可以直接生成 1:1 的新年场景,也可先将角色抠出合成绿幕,再生成没有人物的场景图。创建新年主题场景可输入关键词“新年、中国新年、喜庆热闹、恭喜发财”等得到合适背景。生成图片后选择合适的图并高清放大。
  • 让场景动起来可使用可灵 AI 1.6 图生视频工具,抽卡性价比不错,简单效果一般抽两三次即可。提示词示例:可爱的拟人小鹿拿着红包对你说谢谢老板,非常开心忍不住跳舞,背后下着红包雨。在视频制作中,还结合使用了 Runway 的文本生成视频和 Steerable Motion 技术实现复杂镜头运动,采用首尾帧图生视频技术将多个短镜头拼接成连续长镜头提高画面连贯性和流畅度。
Content generated by AI large model, please carefully verify (powered by aily)

References

上海国际AIGC大赛第三名—《嘉定汇龙》复盘

图生视频:图生视频主要市面上几个工具:可灵、即梦、Luma,核心方法就是穷举,不断地抽卡,在抽卡的过程中不断调整prompt,比如设计人物的动作、辅助镜头的运镜。运镜效果:在视频制作中,我们结合使用了Runway的文本生成视频和Steerable Motion技术,实现了复杂的镜头运动。这些技术让我们的镜头更具动态感和视觉冲击力。镜头拼接:我们采用首尾帧图生视频技术,将多个短镜头拼接成连续的长镜头,提高了画面的连贯性和流畅度。

工具教程:清影

输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。[heading3]👍两个小技巧[content]⚠️技巧1:选用尽可能清晰的图片,上传图片比例最好为3:2(横版),清影支持上传png和jpeg图像如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。⚠️技巧2:提示词要【简单清晰】1️⃣可以选择不写prompt,直接让模型自己操控图片动起来。2️⃣明确你想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现AI狂乱景象)如果你不明确大模型如何理解你的图片,推荐将照片发送到清言对话框进行识图,明确你的【主体】该如何描述。

🎉 手把手教

在这步我们可以直接生成1:1的新年场景,也可以先将角色抠出合成绿幕,再生成没有人物的场景图,方便后期更精细地控制。背景是表情包的一个重要元素,尤其是新年版的表情包,要表现出浓厚的节日气氛。可以创建一个符合新年主题的场景。输入关键词“新年、中国新年、喜庆热闹、恭喜发财”之类的词汇,得到合适的新年背景。在即梦图片生成界面中考选项为智能参考,导入参考图参,模型选择-图片2.0 Pro。输入提示词,生成图片以后选择合适的图,然后选择高清放大提示词示例1:戴着醒狮帽,双手抱拳,红色背景,新年喜庆。背景中有金粉,碎花,3d爆竹显得热闹而喜庆提示词示例2:拿着"福"字,新年气氛,红色背景,新年喜庆。背景中有金粉,碎花,3d爆竹显得热闹而喜庆[heading2]第三步:图转视频[content]现在,我们要让这个场景动起来啦!用可灵AI 1.6图生视频工具,抽卡性价比不错,简单效果一般抽两三次即可。提示词:可爱的拟人小鹿拿着红包对你说谢谢老板,非常开心忍不住跳舞,背后下着红包雨

Others are asking
我想图生图,生成高清矢量图
以下是关于图生图生成高清矢量图的相关内容: ControlNet 参数: 预处理器:canny,模型:control_v11p_sd15_canny 预处理器:lineart_standard,模型:control_v11p_sd15_lineart 放大高清大图: 使用 Multi Diffusion + Tiled VAE + ControlNet Tile 模型 将生成的图片发送到图生图,关键词种子会一并发送过去,重绘幅度建议 0.35,太高图片细节会发生变化 Lora 生图: 点击预览模型中间的生图会自动跳转到相应页面 模型上的数字代表模型强度,可在 0.6 1.0 之间调节,默认为 0.8 可自己添加 lora 文件,输入正向提示词,选择生成图片的尺寸(横板、竖版、正方形) 采样器和调度器新手小白可默认,迭代步数在 20 30 之间调整,CFG 在 3.5 7.5 之间调整,随机种子 1 代表随机生成图 生成的图会显示在右侧,若觉得某次生成结果不错,想要微调或高分辨率修复,可复制随机种子粘贴到相应位置 确认合适的种子和参数想要高清放大,可点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 30 之间,重绘幅度正常在 0.3 0.7 之间调整 高清修复: 文生图高清修复原理是命令 AI 按原来内容重新画一幅,新生成绘图和原绘图细节会不同,降低重绘幅度可更接近原图,如重绘幅度 0.7 时帽子和耳机有变化,0.3 时服饰细节接近但手部可能出现问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 ps 合成等解决 由于高清修复渲染耗时长,建议先低分辨率抽卡刷图,喜欢的图再用随机种子固定进行高清修复 SD 放大: 文生图画好图后发送到图生图,点击脚本选择使用 SD 放大 重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64,原图尺寸加上重叠像素,如 512x768 变为 576x832,重绘幅度要保持较低数值,否则可能出现新人物
2025-04-14
我想要通过建筑草图生成效果图,有什么工具和流程可以使用
以下是使用悠船工具将建筑草图生成效果图的流程和相关介绍: 1. 基础使用: 提示词:在右侧填写提示词,右上可下载对应图片。 参数调整:参数详解参考下方「参数详解」。注意任何点击都会重新生成图片,免费用户可能会提示超出套餐,所以别乱点。最右侧是所有生成图片的略缩图。 2. 图片调整: 变化:分为细微和强烈,细微改变幅度小,强烈改变幅度大。 高清:有“直接”和“创意”两种模式,“直接”表示啥都不变直接出高清,“创意”表示在图片基础上进行微小的优化调整。 风格变化:基于生成的图片作为上传图片(垫图)再创作。 拓展:可上下左右拓展图片。 缩放:指的是镜头,比如 2x 就是镜头拉远 2 倍。 局部重绘:选择区域要大一些,太小的无法进行修改。 3. 图像参考: 在悠船中可以利用垫图和提示词配合生成符合要求的建筑、风景、文物等。只需将图片复制到悠船的提示词框里面,并填写对应的提示词描述。
2025-04-14
图生图网站排名推荐
以下是为您推荐的图生图网站排名: 1. 文生图: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 2. 图生视频: pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 luma 1.6:画面质量挺好,但是太贵了。 可灵 1.6 高品质:YYDS! 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 runway:我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds!就是太贵了!!!!! seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 3. 小白也能使用的国内外 AI 生图网站: 可灵可图 1.5:https://app.klingai.com/cn/texttoimage/new 通义万相(每日有免费额度):https://tongyi.aliyun.com/wanxiang/creation 文心一言:https://yiyan.baidu.com/ 星流(每日有免费额度):https://www.xingliu.art/ Libiblib(每日有免费额度但等待较久):https://www.liblib.art/
2025-04-13
图生 视频
以下是关于图生视频的相关内容: 工具教程:清影 什么是图生视频:输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 两个小技巧: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。 提示词要【简单清晰】:可以选择不写 prompt,直接让模型自己操控图片动起来;明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果您不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。 视频演示 |首帧图|PROMPT|视频(配音版)|视频(纯享版)| ||||| |1、泳池里的小鸭子|Little yellow duck toy floating on the water in the swimming pool,closeup|| |2、洞穴文明|The primitive man raises his hand.The camera zooms out.|| |3、魔法少女|A woman reaches out to touch the glowing box.Particle effects.|| |4、离别列车上的小狗|a dog with Furry white claws the bus window with reflections on the glass,Furry white claws,closeup,ultrarealistic|| |5、古典美女|celine,classic photograph from Life magazine|| |6、废土黑雨|游戏场景在下雨,人物看起来非常担心|| 工具教程:PixVerse V2 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-04-13
手绘草图生成图片
以下是关于手绘草图生成图片的相关信息: ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词,从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,Union 版本不建议权重调太高,结束时间也不宜过长。 生成上色后的视频: how2draw Flux lora:分享一个好玩的 flux lora,触发词为 how2draw。 图片生成 3D 建模工具: Tripo AI:在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 Meshy:功能全面,支持文本、图片生成 3D 以及 AI 材质生成。 CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象。 Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域。 VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型。 【SD】真人转二次元: 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,X 轴为提示词相关性(130,每次增加 5),Y 轴为重绘幅度(01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,大于 11 后画面色彩和脸型可能崩坏,重绘幅度大小可控制生成图与原图的相似度。 绘图功能:如增加红色眼镜、去掉衣服图案、局部重绘(手涂蒙版)修改部分等。
2025-04-01
怎么用图生成png格式的新图
以下是用图生成 PNG 格式新图的方法: 使用 Stable Diffusion: 1. 若在网上看到好看的大佬的图,将其导入 SD。若能识别,右边会自动弹出照片的信息,包括正面关键词、负面关键词,还有其他种子、大模型等信息。 2. 复制这一大串信息,来到“文生图”页面,粘贴到关键词的文本框中。 3. 点击“生成”按钮下面的第一个小按钮,SD 会自动分配信息,在有相同大模型和 Lora 的前提下,点击生成,可能得到差不多的照片。 4. 若导入照片后右边未出现生成信息,说明照片不是直接从 SD 下载下来的 PNG 格式照片,此时可使用“标签器(Tagger)”来生成照片的关键词。 使用 OpenAI 的图像生成端点: 1. 图像生成端点允许在给定文本提示的情况下创建原始图像,生成的图像大小可为 256x256、512x512 或 1024x1024 像素,较小尺寸生成速度更快。可使用参数一次请求 1 10 张图像。描述越详细,越有可能获得想要的结果,也可在 DALL·E 预览应用程序中探索示例获取更多提示灵感。 2. 图像编辑端点允许通过上传蒙版来编辑和扩展图像。遮罩的透明区域指示应编辑图像的位置,提示应描述完整的新图像,而不仅仅是擦除区域。上传的图片和遮罩必须是小于 4MB 的正方形 PNG 图片,且尺寸相同。生成输出时不使用遮罩的非透明区域。
2025-03-27
文生视频工具
以下是一些文字生成视频的 AI 产品: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 以上工具适用于不同的使用场景和需求,您可以根据自己的具体情况进行选择。更多的文生视频的网站可以查看这里: 关于 Sora,目前还处于测试阶段,未放开使用。GPT4 至今仍存在幻觉严重的问题,换到文生视频工具上,复杂视频的生成牵涉到众多物理世界的因果关系和逻辑推理,可能会出现难以消除的幻觉和逻辑漏洞。马斯克认为特斯拉一年前就有相关能力并已在用,且对 Sora 有所评价。Sora 很惊艳,但自身仍充满挑战,较大可能走到 GPT4 的大瓶颈,全球级的学术大神、产研巨佬均不看好或不屑一顾。在论证其应用价值时,需要深入思考传统产业的运行方式,比如创意内容、短视频、流量分发、电影工业和广告等。
2025-03-16
可以视频混剪去重和二创的AI视频工具
以下是一些可以进行视频混剪去重和二创的 AI 视频工具: 1. 【TecCreative】 产品链接生成视频:输入产品链接(目前主要支持 Amazon、Shopify、ETSY、Ebay、Appstore、Google Play、WIKI 等,其他网站来源持续接入中),选择数字人角色,点击立即生成。如遇生成失败,可尝试删除链接后缀,点击重新生成。 AI 视频高光切片:智能提取视频高光片段,高效二创生成新视频。适用场景为有初始长视频素材,需要提取高光镜头对初始素材进行混剪投放到短视频平台。使用指引为点击上传视频——立即生成。 2. 小歪:AI 视频工具合集 viggle(有免费额度) 网址:http://viggle.ai discord 免费体验:https://discord.com/invite/viggle 功能: /mix: 将角色图像混合到动态视频中。上传一张字符清晰的图片和一段清晰运动的视频。 /animate: 使用文本运动提示为静态角色设置动画。上传一张字符清晰的图片,描述想让角色做的动作(也可从 https://viggle.ai/prompt 中复制动作提示词)。 /ideate: 纯粹从文本创建角色视频。描述想要创造的角色和希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /character: 通过文本提示创建角色并将其动画化。描述想要创造的角色,从四个结果中选择一个图像,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize: 使用文本提示符重新设计角色的样式并将其动画化。上传一张字符清晰的图片,描述想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 3. 其他工具: SVD:https://stablevideo.com/ ,对于景观更好用。工具教程: Morph Studio:https://app.morphstudio.com/ ,还在内测 Heygen:https://www.heygen.com/ ,数字人/对口型 Kaiber:https://kaiber.ai/ Moonvalley:https://moonvalley.ai/ Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频 美图旗下:https://www.miraclevision.com/ Neverends:https://neverends.life/create ,操作傻瓜 SD:Animatediff SVD deforum ,自己部署 Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态 Krea:https://www.krea.ai/ Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频 Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种 invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频 descript:https://www.descript.com/?ref=feizhuke.com veed.io:https://www.veed.io/ ,自动翻译自动字幕 clipchamp:https://app.clipchamp.com/ typeframes:https://www.revid.ai/?ref=aibot.cn
2025-03-07
国内的AI做视频工具
以下是一些国内的 AI 做视频工具: 1. Hidreamai(国内,有免费额度) 网址:https://hidreamai.com//AiVideo 支持文生视频、图生视频。 提示词使用中文、英文都可以。 文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型,能根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达 4K,最高 38402160,画面细腻逼真,帧率 60fps。支持中文,有时空理解。 3. Dreamina(国内内测,有免费额度) 网址:https://jimeng.jianying.com/aitool/video/generate 支持文生视频、图生视频,视频生视频。 支持图生视频首尾帧功能。 提示词使用中文、英文都可以。 文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持 16:9、9:16、1:1、3:4、4:3 尺寸。 图生视频、视频生视频除尺寸不可选外,其他与文生视频基本相同。默认生成 3s 的视频。 4. 可灵(免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除不可运镜控制外,其他与文生视频基本相同。默认生成 5s 的视频。 此外,在视频制作方面,国内还可以使用出门问问的魔音工坊来调节声音情绪。在剪辑方面,对于 1 3 分钟的短片,剪映比较方便,因其有人性化设计及简单的音效库/小特效;但对于更长篇幅或追求更好效果的视频,可能需要使用 PR/FCP/达芬奇等传统剪辑软件。剪辑流程通常为:视频粗剪 视频定剪 音效/音乐 特效 包装(如字幕)。
2025-02-26
文案转视频工具
以下是关于文案转视频工具的相关信息: 通过 ChatGPT 生成文案后,可将文案复制到支持 AI 文字转视频的工具内实现短视频自动生成。一些手机剪辑软件也具备文字转视频功能,如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。这类工具操作相对简单,让大众更易上手制作视频。 一些文字生成视频的 AI 产品包括: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:可在 Stable Diffusion 基础上安装插件,基于图片生成视频。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关工具可查看: 在视频转绘制作视频过程中,Ebsynth Utility 是常用工具之一。选取素材时需注意: 1. 主题占画面 50%以上,如人物和机车在一起的画面。 2. 背景不要太杂乱。 3. 尽量不选带有特效的视频,避免画面抖动和畸变,若出现可通过后期剪辑处理。 4. 抖音和快手平台的视频可通过分享中的下载按钮或微信小程序“一键去水印”下载无水印视频。
2025-02-06
哪一款免费的文生视频工具最好用
以下是一些免费的文生视频工具推荐: 1. Pika:是一款出色的文本生成视频AI工具,擅长动画制作,并支持视频编辑。 网址:https://pika.art/ https://discord.gg/pika 教程: 2. SVD:如果熟悉Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由Stability AI开源的video model。 3. Kaiber:这是一款视频转视频AI,能够将原视频转换成各种风格的视频。 网址:https://kaiber.ai/ 4. Hidreamai(国内,有免费额度): 网址:https://hidreamai.com//AiVideo 特点:支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成5s和15s的视频 5. ETNA(国内): 网址:https://etna.7volcanoes.com/ 特点:是一款由七火山科技开发的文生视频AI模型,可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在8~15秒,画质可达到4K,最高38402160,画面细腻逼真,帧率60fps。支持中文,时空理解 更多的文生视频的网站可以查看这里: 需要注意的是,这些工具均适合于不同的使用场景和需求,您可以根据自己的具体情况进行选择。内容由AI大模型生成,请仔细甄别。
2025-02-06
目前最好用的ai视频工具
以下是一些目前较为好用的 AI 视频工具: Runway(https://runwayml.com/):在真实影像方面质感出色,战争片全景镜头处理优秀,控件体验感好,但容易变色且光影不稳定,控制能力强,可指定局部对象设置运动笔刷。 Pixverse(https://pixverse.ai/):在高清化方面有优势,对偏风景和纪录、有特定物体移动的画面友好,能力全面,但同时只能进行 4 个任务。 Haiper(https://haiper.ai/):默默无闻,只能生成 2 秒,但有不错的镜头,稳定性强,且没有并发任务限制。 Pika(https://pika.art/):对奇幻感强的画面把控好,自然,但真实环境画面易糊,有嘴型同步功能,对二次元友好。 SVD(https://www.stablevideo.com/):整体略拉垮,唯一优势是在风景片方面表现较好,不带水印,动作幅度大,但崩坏概率大。 此外,还有以下 AI 视频工具: Morph Studio(https://app.morphstudio.com/):还在内测。 Heygen(https://www.heygen.com/):数字人/对口型。 Kaiber(https://kaiber.ai/) Moonvalley(https://moonvalley.ai/) Mootion(https://discord.gg/AapmuVJqxx):3d 人物动作转视频。 美图旗下(https://www.miraclevision.com/) Neverends(https://neverends.life/create):操作傻瓜。 SD:Animatediff SVD deforum,需自己部署。 Leiapix(https://www.leiapix.com/):可以把一张照片转动态。 Krea(https://www.krea.ai/) Opusclip(https://www.opus.pro/):利用长视频剪成短视频。 Raskai(https://zh.rask.ai/):短视频素材直接翻译至多语种。 invideoAI(https://invideo.io/make/aivideogenerator/):输入想法生成脚本和分镜描述,进而生成视频,可人工二编后合成长视频。 descript(https://www.descript.com/?ref=feizhuke.com) veed.io(https://www.veed.io/):自动翻译自动字幕。 clipchamp(https://app.clipchamp.com/) typeframes(https://www.revid.ai/?ref=aibot.cn)
2025-02-01