Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

免费图生视频

Answer

以下为一些免费的图生视频工具及相关信息:

  • Pika labs:目前推出了 Beta 版本,支持免费、不限次数地文生视频、图生视频,生成的视频会带上官方水印。使用方法如下:
    • 在 Discord 试用 Beta 版本:http://discord.gg/pika 。
    • 选择 generate-x 开头的频道或者建立 pika labs 私信。
    • “/create”输入 prompt 即可完成文生视频,输入 prompt 后,点击“增加 1”可添加 image 进行文+图生视频。如果想仅输入图片,不输入 Prompt 来生成视频,可以使用/animate 命令。此外,🔄可以帮助用户快速进行多次生成,🔀则可以方便的可控参数能基本满足需求。
    • 9 月,pika 更新了新能力加密信息。使用命令/encrypt_text,可以将最多 20 个字符的文本“加密”到给定的视频输出中。而/encrypt_image,则可以实现输入 logo image,生成图像动画中含有 logo 的效果。值得一提的是,最好将 logo 文件处理为黑底白图,否则 pika labs 可能无法识别。使用/encrypt_image 命令时,除了输入一张 logo image,还可以选择性增加一张垫图,垫图会对视频整体风格、内容产生影响。
    • 在 Prompt-tutorial 频道,有很多值得一看的教学视频,而在 showcase 频道和官方 twitter 中可以看到许多优秀案例。官方 Twitter:https://twitter.com/pika_labs 。
  • Haiper(有免费额度):https://haiper.ai/ 。文生视频、图生视频、素描生视频、扩展视频,能生成 HD 超高清的视频。文生视频支持选择风格、秒数(2s 和 4s)、种子值。图生视频只能写提示词、秒数(2s 和 4s)、种子值。视频重绘,轻松修改颜色、纹理和元素以改变原视频的视觉内容。局部重绘是使用点选的方式,选中需要重绘的区域,再输入需要替换的内容提示词,如果是大量背景的重绘,效果一般,视频容易崩。文生视频不同风格展示AI 视频提示词库
  • DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readme-ov-file 。2 秒图生视频,还可以做短视频拼长视频。
  • Morph studio(内测):https://app.morphstudio.com/ 。暂未对外开放,可在官网提交内测申请。discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3s 视频。

另外,将图片拖到 runway 里面也可以图生 4s 视频(runway 是收费的,可在闲鱼或者淘宝买号)。进入 runway 官网首页,点击 start with image ,然后直接将图片拖进来,动画幅度尽量用 3,5 有时候会乱跑。啥都不用改,直接点击生成即可。注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。直接点删除,然后重新上传下面的图即可(最多可以放几个可自行测试) 。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI视频生成(下) | 20个产品推荐及实践教学

该产品目前推出了Beta版本,支持免费、不限次数地文生视频、图生视频,和Runway一样,生成的视频会带上官方水印。Pika labs很少披露其产品、技术的详细情况,官网也没有花精力好好做,在国内外的影响力都没有Runway大,但其生成效果足以站上AI视频的牌桌。官方Twitter:https://twitter.com/pika_labs优秀案例:近期x上一个创作者发布的庆祝星球大战100周年的短片做的非常成功:这位导演用Pika labs产出的视频都非常高质量。By:Matan Cohen-Grumi[heading4]使用方法[content]1.目前在Discord试用Beta版本:http://discord.gg/pika2.选择generate-x开头的频道或者建立pika labs私信3."/create"输入prompt即可完成文生视频输入prompt后,点击“增加1”可添加image进行文+图生视频如果你想仅输入图片,不输入Prompt来生成视频,可以使用/animate命令此外,🔄可以帮助用户快速进行多次生成,🔀则可以方便的可控参数能基本满足需求。文本、图像加密9月,pika更新了新能力加密信息。使用命令/encrypt_text,可以将最多20个字符的文本“加密”到给定的视频输出中。By:Matan Cohen-Grumi而/encrypt_image,则可以实现输入logo image,生成图像动画中含有logo的效果:By:Matan Cohen-Grumi值得一提的是,最好将logo文件处理为黑底白图,否则pika labs可能无法识别。使用/encrypt_image命令时,除了输入一张logo image,还可以选择性增加一张垫图,垫图会对视频整体风格、内容产生影响。控制参数介绍在Prompt-tutorial频道,有很多值得一看的教学视频,而在showcase频道和官方twitter中可以看到许多优秀案例。

小歪:AI视频工具合集

https://haiper.ai/文生视频、图生视频、素描生视频、扩展视频,能生成HD超高清的视频文生视频支持选择风格、秒数(2s和4s)、种子值文生视频不同风格展示[AI视频提示词库](https://waytoagi.feishu.cn/wiki/FPLTwMwsxiXC0kkfcmncqI2XnDh?table=tblHfIXQT9G4fiNR&view=vewItBc7AK)图生视频只能写提示词、秒数(2s和4s)、种子值视频重绘,轻松修改颜色、纹理和元素以改变原视频的视觉内容。局部重绘是使用点选的方式,选中需要重绘的区域,再输入需要替换的内容提示词,如果是大量背景的重绘,效果一般,视频容易崩。相关界面截图:[heading3]DynamiCrafter(免费)[content]https://huggingface.co/spaces/Doubiiu/DynamiCrafterhttps://github.com/Doubiiu/DynamiCrafter?tab=readme-ov-file2秒图生视频,还可以做短视频拼长视频[heading3]Morph studio(内测)[content]https://app.morphstudio.com/知识库详细教程:[工具教程:morphstudio](https://waytoagi.feishu.cn/wiki/LkN4wiFaJiklVHkDG4Ec5nZpnLb)暂未对外开放,可在官网提交内测申请discord上可以免费体验支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置默认生成3s视频使用参数说明

WTF:1w粉 - 10w粉仅仅用时 13 天,像素级拆解《动物时装秀》

图片搞定之后,我们就可以拖到runway里面去图生4s视频了。(runway是收费的,大家也可以找一下有没有免费的,可以去闲鱼或者淘宝买号)进入runway官网首页,点击start with image然后直接将图片拖进来动画幅度尽量用3,5有时候会乱跑啥都不用改,直接点击生成即可注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行直接点删除,然后重新上传下面的图即可(最多可以放几个我没数,大家可以自行测试)重复步骤即可生成所有视频

Others are asking
图生视频工具
以下是为您介绍的图生视频工具相关内容: 市面上的图生视频工具主要有可灵、即梦、Luma等。其核心方法是穷举和不断抽卡,在抽卡过程中调整 prompt,比如设计人物动作、辅助镜头运镜。 清影是一款图生视频工具,输入一张图片和相应提示词,大模型会将图片转变为视频画面。也可以只输入图片,模型自行发挥想象力生成有故事的视频。使用时的技巧包括:选用清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像;提示词要简单清晰,明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。如果不明确模型如何理解图片,可将照片发送到清言对话框进行识图明确主体描述。 在生成新年场景时,可以直接生成 1:1 的新年场景,也可先将角色抠出合成绿幕,再生成没有人物的场景图。创建新年主题场景可输入关键词“新年、中国新年、喜庆热闹、恭喜发财”等得到合适背景。生成图片后选择合适的图并高清放大。 让场景动起来可使用可灵 AI 1.6 图生视频工具,抽卡性价比不错,简单效果一般抽两三次即可。提示词示例:可爱的拟人小鹿拿着红包对你说谢谢老板,非常开心忍不住跳舞,背后下着红包雨。在视频制作中,还结合使用了 Runway 的文本生成视频和 Steerable Motion 技术实现复杂镜头运动,采用首尾帧图生视频技术将多个短镜头拼接成连续长镜头提高画面连贯性和流畅度。
2025-03-16
图生视频
以下是关于图生视频的相关信息: 什么是图生视频: 输入一张图片和相应的提示词,清影大模型会将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 图生视频的两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。 2. 提示词要【简单清晰】。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确您想动起来的【主体】,并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确【主体】的描述。 常见的图生视频模型(从高到低排序)及特点: 1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 2. luma 1.6:画面质量挺好,但是太贵了。 3. 可灵 1.6 高品质:YYDS! 4. 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!! 8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 9. pixverse v3 高品质:pinverse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 PixVerse V2 使用教程: 1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-03-15
流程图生成
生成流程图主要有以下两种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形,代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式,只要解决语法抽象写起来麻烦的问题就行。使用 ChatGPT 生成图形语法的生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功,最后测试发现非常完美。 此外,Recraft 也能生成带有长文本图像的流程图解。在其开发过程中包含了很多不同的模型和工作,比如帮助处理数据的模型,由非专业设计师的标注人员和专业设计师参与的标注工作,训练 OCR 模型,新构建的数据集等等。但创建自己的模型存在困难,既需要超强的团队,组建这样的团队很难,而且训练自己的模型也很贵。
2025-03-13
图生视频
以下是关于图生视频的相关信息: 什么是图生视频: 输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 图生视频的两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。 2. 提示词要【简单清晰】: 可以选择不写 prompt,直接让模型自己操控图片动起来。 明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。 常见的图生视频模型及特点(从高到低排序): 1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 2. luma 1.6:画面质量挺好,但是太贵了。 3. 可灵 1.6 高品质:YYDS! 4. 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!! 8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 9. pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 PixVerse V2 使用教程: 1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-03-13
我想知道现在中国网络环境内可以用的最好图片AI,以图生图稳定
目前在中国网络环境内可用的较好的以图生图且较为稳定的 AI 产品有: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格可选,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,关于 Stable Diffusion 还有一些相关的使用技巧和处理步骤: 用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,该放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,如设置 X 轴为提示词相关性,Y 轴为重绘幅度等。绘图时可通过增加提示词、使用画笔工具等进行局部修改和重绘。
2025-03-12
图生文怎么制作
以下是关于图生文制作的详细步骤: 一、Tusiart 简易上手教程 1. 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看帖子中使用的 lora。 4. ControlNet:用于控制图片中的特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和长句。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可留意 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 后,采样次数在 30 40 之间,过多意义不大且慢,过少出图效果差。 11. 尺寸:根据个人喜好和需求选择。 二、Liblibai 简易上手教程 1. 定主题:确定要生成的图片的主题、风格和表达信息。 2. 选择 Checkpoint:依照主题找贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 来控制图片效果和质量,参考广场上的优秀帖子。 4. 设置 VAE:无脑选 840000 那一串。 5. CLIP 跳过层:设成 2 。 6. Prompt 提示词:用英文写想要 AI 生成的内容,单词和短语组合,用英文半角逗号隔开,不管语法和长句。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开,不管语法。 8. 采样方法:一般选 DPM++2M Karras 较多,留意 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 后,在 30 40 之间,过多意义不大且慢,过少出图效果差。 10. 尺寸:根据个人喜好和需求选择。 11. 生成批次:默认 1 批。 三、SD 新手入门图文教程 1. CFG Scale(提示词相关性):决定图像与提示的匹配程度,增加该值会使图像更接近提示,但可能降低图像质量,可用更多采样步骤抵消,一般开到 7 11 ,过高会有粗犷线条和过锐化图像。 2. 生成批次:每次生成图像的组数,一次运行生成图像的数量为“批次×批次数量”。 3. 每批数量:同时生成的图像个数,增加会提高性能但需更多显存,若显存未超 12G ,保持为 1 。 4. 尺寸:指定图像长宽,出图尺寸太宽可能出现多个主体,1024 以上尺寸可能效果不理想,推荐小尺寸分辨率+高清修复(Hires fix) 。 5. 种子:决定模型生成图片时的随机性,初始化 Diffusion 算法起点的初始值,相同参数下应生成相同图片。 6. 高清修复:通过勾选“Highres.fix”启用,默认高分辨率下会生成混沌图像,使用后先按指定尺寸生成再放大,实现高清大图效果,最终尺寸为(原分辨率×缩放系数 Upscale by) 。
2025-03-11
哪些模型的视频理解能力比较好?
以下是一些视频理解能力较好的模型: 1. 通义千问的 Qwen2.5VL 模型:具有以下优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 2. Sora 模型:周鸿祎认为其技术思路完全不同,能像人一样理解现实世界,将大语言模型和 Diffusion 结合起来训练,实现了对现实世界的理解和模拟两层能力,对物理世界的模拟将对机器人具身智能和自动驾驶带来巨大影响。 3. 腾讯的混元模型:在语义理解方面表现出色,能够精准还原复杂的场景和动作,例如一只银渐层在游乐园里奔跑跳到小女孩怀里、一位紫衣女修在竹林中抚琴、星系边缘宇宙战舰引爆反物质引擎等场景。
2025-03-18
ai修改视频文案
以下是关于 AI 修改视频文案的相关内容: 在文案创作方面: 最初打算用旁白朗诵方式制作片子,类似《舌尖上的中国》,但直接让 GPT 写文案效果平淡,需更具体提出需求。 利用 360 浏览器字幕提取功能捕捉《爱我中华》视频文案,让 Kimi 和 ChatGPT 进行分析学习,以理解写作风格并融会贯通。对比发现,Kimi 在对中文的理解和写作能力上更突出。 让 AI 按此风格写作,整合两个 AI 的作品并调整,使文案更顺口,如将“钟山风雨起苍黄,江南佳丽地,金粉六朝都”改为“钟山风雨起苍黄,古都烟云梦犹长”。 在现阶段应用场景方面: 制作低成本的营销视频、企业宣传视频、培训课程,可使用 Synthesia、HeyGen AI、DID 等产品,用 Avatar 代替真人出镜。 出海企业给产品推广、介绍使用体验,诗云马良平台早在 21 年就推出给视频中模特换脸、切换语言的能力,近期 HenGen AI 也有相关能力,且能匹配 Avatar 口型与视频。 在歌词创作方面: 文案完成后,因剪映预设的 AI 语音效果不佳,决定为南京写歌并制作 MV。 将文案复制给 AI 进行歌词改写和取名,可定义风格和时间长度。 对比 Kimi 和 ChatGPT 写的歌词,最终修改 ChatGPT 写的歌词定稿,如“悠悠金陵风,古韵今犹存,钟山风雨起,金粉六朝魂。龙蟠虎踞地,文采风流情。梦开始之处,南京故事行。走过历史长廊,触摸时间痕迹,秦淮夜色下,灯火映繁华。夫子庙旧梦长,儒韵千古传,石头城波光里,岁月永流转。”
2025-03-18
有什么ai可以视频转文字
以下是一些可以进行视频转文字的 AI 工具: 1. Memo AI:支持将 YouTube、播客、本地音频视频轻松转文字、字幕翻译、语音合成,还可以由多种 AI 模型提炼内容精华总结,生成思维导图。同时支持多语言,包括中文、英语。 2. 通义听悟(或飞书妙记):可以将音频上传生成文字稿。 此外,海螺 AI 工具不仅能进行声音克隆,还能嵌入完整的 AI 录视频工作流中,其中包括将视频中的音频提取并转文字的步骤。
2025-03-18
目前有哪些免费可用的 AI视频生成软件
以下是一些免费可用的 AI 视频生成软件: 1. Haiper:有免费额度,网址为 https://haiper.ai/ 。支持文生视频、图生视频、素描生视频、扩展视频,能生成 HD 超高清的视频。文生视频支持选择风格、秒数(2s 和 4s)、种子值。图生视频只能写提示词、秒数(2s 和 4s)。还支持视频重绘,包括局部重绘。 2. DynamiCrafter:免费,网址为 https://huggingface.co/spaces/Doubiiu/DynamiCrafter 及 https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,可生成 2 秒图生视频,还能做短视频拼长视频。 3. Morph studio:处于内测阶段,网址为 https://app.morphstudio.com/ 。暂未对外开放,可在官网提交内测申请。在 discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3s 视频。 此外,清影也是一款不错的 AI 视频生成工具,在首发测试期间所有用户均可免费使用。它具有不限量使用、生成速度快、提供配乐小功能等特色。生成参数包括时长 6s、清晰度 1440x960(3:2)、帧率 16fps 等,在风景、动物、超现实、人文历史类需求以及皮克斯风格、卡通风格、摄影风格、动漫风格等方面表现突出。 截至 2023 年,我们已经发现了 21 个公开的人工智能视频生成工具,大多数起初以 Discord 机器人的形式存在,随着产品成熟,越来越多的工具开始建立自己的网站甚至开发移动应用。
2025-03-18
我需要自己搭一个ai自动剪辑视频的插件
以下是搭建 AI 自动剪辑视频插件的详细步骤: 一、开通服务 1. 先获取搭建完成后需要用到的各种模型的 key。 首先注册火山引擎:https://volcengine.com/L/4lZ8oszvY20/ ,邀请码:KL9ZC1IF 。这个项目会使用到不少 Token,刚好火山现在还有赠送 Token 的活动,若未注册,使用此邀请码和链接注册可获得 375 万的 Token。 开通各项服务和拿到各个服务的 Key: 获取 LLM_ENDPOINT_ID、VLM_ENDPOINT_ID、CGT_ENDPOINT_ID、ARK_API_KEY 。注册后点击:控制台,进入火山方舟控制台(https://console.volcengine.com/ark/region:ark+cnbeijing/model?vendor=Bytedance&view=LIST_VIEW)。创建一个接入点,点击在线推理创建推理接入点。命名并选择 Doubaopro32k 模型。重复此步骤创建 Doubaovisionpro32k、Doubao视频生成模型这两个推理点。创建完成后,复制推理点的 ID 并对应填入相应位置。然后继续点击“API key 管理”创建一个并复制下来,这就是 ARK_API_KEY 。 获取 TOS_BUCKET 。 二、服务部署 1. 购买服务器:直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbpr8j2ftq0&regionId=8&zone=apbeijing3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lhconsole 。 2. 根据以下配置购买即可。 3. 购买并付款完成后,回到服务器“控制台”。 4. 点击服务器卡片的空白处,去添加防火墙。按照如下方式添加:8887、8080 端口,点击确定即可。 5. 点击右上角的“登录”按钮,扫码验证后,看到一个命令行窗口。下边出现代码,复制的时候,注意复制全。代码已分好步骤,每次只需要复制粘贴一行,然后点击一次回车。回车后,只有最左边显示中括号对话前缀时,不要操作。若 ctrl+v 粘贴不进去,试试 shift+ctrl+v 粘贴。 6. 在命令行中,一条一条输入: echo\"8887\">/www/server/panel/data/port.pl sudo kill9$ sudo/etc/init.d/bt default 7. 保存并打开你的外网面板地址,输入账号和密码。 8. 选择已有账号登录,然后会有一个账号绑定页,这个是宝塔的账号,如有就直接登录,没有就去注册一个。注意,注册完成之后,要返回原页面登录!不要停留在宝塔的注册功能页。 9. 直接关掉推荐,来到文件。点击根目录,打开 home 文件。 10. 点击:文件目录上方的“终端”,出现下方窗口。 11. 粘贴输入:git clone https://github.com/volcengine/aiapplab.git 。 12. 然后关闭终端窗口,刷新一下会看到有一个 aiapplab 文件夹,打开文件夹找到 demohouse/chat2cartoon 文件夹,看到有一个“.env”。 13. 然后把提前准备的那些 key 和 token,对应的粘贴进去。 14. 粘贴完成之后,继续进入 backend 文件夹,然后打开“终端”输入以下命令: python3 m venv.venv source.venv/bin/activate pip install poetry==1.6.1 poetry install poetry run python index.py 15. 依次完成后,会如下图所示,看到下图到后端就启动成功了,把这个页面保持如下,不要关掉页面。保持这个终端是打开的。 16. 重新复制打开一个新的浏览器标签页面。返回上级文件夹,进入/home/aiapplab/demohouse/chat2cartoon/frontend/src/routes 。
2025-03-17
Google 图片视频AI
以下是关于 Google 图片视频 AI 的相关信息: Google 发布了 AI 视频 Veo2 和 AI 绘图 Imagen3。 关于 AI 视频 Veo2: 官网介绍可申请 waitlist,链接为 https://labs.google/fx/zh/tools/videofx 。 引入了改进后的物理引擎,能模拟真实世界动态变化。 能更好地捕捉和模拟人类动作、运动轨迹,并高精度呈现。 具有电影级视觉效果,能生成有深度感和层次感的场景。 提供灵活的镜头控制选项,允许用户调节镜头角度、视角和焦距等参数。 关于 AI 绘图 Imagen3: 绘图链接为 https://labs.google/fx/tools/imagefx 。 是最高质量的文本到图像模型,能生成比之前模型更好细节、更丰富光照和更少干扰伪影。 在图像细节和清晰度上有显著提高,生成的图像更生动、真实,细节更丰富。 相关报道和链接: 数字生命卡兹克:Google 全新发布 AI 视频 Veo2、AI 绘图 Imagen3 何以凌越,https://mp.weixin.qq.com/s/4ACndSdfG8az3gdLn5QLIQ 。 量子位:谷歌版 Sora 升级 4K 高清!一句话控制镜头运动,跑分叫板可灵海螺,https://mp.weixin.qq.com/s/8H286tyxbTeZrtEBDZHaA 。 锤爆 Sora,尺度最大,谷歌发布最强视频模型 Veo2,叫板海螺可灵,https://mp.weixin.qq.com/s/sMECORvSikuKHNaEzPor6Q 。 谷歌版 Sora 来了,4K 高清暴击 OpenAI!视频生图新卷王,更理解物理世界,https://mp.weixin.qq.com/s/PFeyrX2q9mWd6GIrJ9qdWQ 。 谷歌的 Imagen 3 终于来了——它是最好的 AI 图像生成器吗?https://mp.weixin.qq.com/s/gcyGvA6_9mxN9yz__jRRHQ 。 测评: ,Google 视频和图像生成模型更新包括 Veo 2、Imagen 3 和一个新工具 Whisk 。
2025-03-17
百度的ai大模型免费的新闻?
以下是关于百度 AI 大模型免费的相关新闻: 2024 年 5 月 21 日,阿里云宣布通义千问主力模型 QwenLong 的 API 输入价格大幅下降,同时下午百度宣布文心大模型两大主力模型全面免费。 2024 年 2 月 13 日,百度宣布文心一言将全面免费,AI 价格战加剧。
2025-03-17
现在最强最新的文本模型是什么,如何免费使用
目前较为强大和新的文本模型包括: BERT:由谷歌推出,是“来自Transformer的双向编码器表示”的缩写。可在免费下载和使用。能用于文本摘要、问答、分类、命名实体识别、文本相似度、攻击性信息/脏话检测、理解用户查询等多种自然语言处理任务。 GPT3:由 OpenAI 创建,生成真实文本的能力令人惊讶。 GPT4:OpenAI 目前最先进的自然语言生成模型,可用于回答问题、撰写文章等。 Gemini Ultra:Google 的多模态人工智能模型,采用神经网络架构,对标 GPT4,可用于回答问题、生成代码、处理文本等。 Claude 3 Opus:Anthropic 的多模态模型,能处理超过 1 百万 token 的输入,具有实时聊天、数据处理、分析预测等功能,实现了接近完美的召回率。 “悟道・天鹰”:北京智源人工智能研究院推出,是首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。 文心一言:百度的大语言模型,可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 需要注意的是,免费使用这些模型可能存在一定限制,部分模型可能需要特定的条件或授权。同时,模型的性能和适用性也会因具体应用场景和需求而有所不同。
2025-03-15
直接分析excel的数据,有哪些AI推荐,免费的
以下是一些可用于直接分析 Excel 数据的免费 AI 工具推荐: 1. 让 AI 帮您写 Excel 宏函数,适用于几乎所有主流 AI。 2. Claude 网页版或 ChatGPT,可上传 CSV 进行可视化分析。 3. Excel Labs:Excel 插件,新增生成式 AI 功能,基于 OpenAI 技术,可在 Excel 中利用 AI 进行数据分析和决策支持。 4. Microsoft 365 Copilot:微软推出的 AI 工具,整合了多种办公软件,通过聊天形式完成数据分析或格式创建等任务。 5. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,可通过自然语言交互式地进行数据分析和生成 Excel 公式。 6. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,能执行公式生成、文本内容生成、情感分析、语言翻译等任务。 随着技术发展,未来可能会有更多 AI 功能集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-14
免费的文字生视频软件
以下是一些免费的文字生成视频软件: 1. Pika:是一款出色的文本生成视频AI工具,擅长动画制作,支持视频编辑,目前内测免费。生成服务托管在discord中,加入Pika Labs的Discord频道,在“generate”子区可进行操作,输入/create并在弹出的prompt文本框内输入描述即可生成视频,还能上传本地图片生成对应指令动态效果。 2. SVD:如果熟悉Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,由Stability AI开源。 3. Kaiber:这是一款视频转视频AI,能够将原视频转换成各种风格的视频。 4. Sora:由OpenAI开发,可以生成长达1分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 Pika labs的特点及使用方法: 目前推出了Beta版本,支持免费、不限次数地文生视频、图生视频,生成的视频会带上官方水印。 官方Twitter:https://twitter.com/pika_labs 使用方法: 在Discord试用Beta版本:http://discord.gg/pika 选择generatex开头的频道或者建立pika labs私信 “/create”输入prompt即可完成文生视频,输入prompt后,点击“增加1”可添加image进行文+图生视频。 若仅输入图片,不输入Prompt来生成视频,可以使用/animate命令。 9月,pika更新了新能力加密信息。使用命令/encrypt_text,可以将最多20个字符的文本“加密”到给定的视频输出中。使用/encrypt_image,则可以实现输入logo image,生成图像动画中含有logo的效果。 请注意,以上内容由AI大模型生成,请仔细甄别。
2025-03-14
索引模型哪家的免费?
以下是一些免费的索引模型: 1. Trae 标配的 Claude3.5sonnet 模型免费不限量。Trae 是一款与 AI 深度集成,提供智能问答、代码自动补全以及基于 Agent 的 AI 自动编程能力的 IDE 工具,其编辑器所有功能原生支持中文,上手门槛低。 2. Stability AI 社区发布的模型,个人和组织可以免费将其用于非商业用途,包括科学研究;初创公司、中小型企业和创作者可以免费将其用于商业目的,只要年总收入低于 100 万美元。 此外,OpenAI 还发布了开源模型,包括 PointE、Whisper、Jukebox 和 CLIP。访问供研究人员的模型索引(https://platform.openai.com/docs/modelindexforresearchers)可详细了解其研究论文中介绍的模型以及 InstructGPT 和 GPT3.5 等模型系列之间的差异。
2025-03-13