直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

目前我已经有了一个可以文生视频或者图生视频的模型但是只能6秒,我要如何利用agent自动流实现这个模型可以生成更长,更可靠质量的视频呢

回答

要利用 agent 自动流实现生成更长、更可靠质量的视频,您可以参考以下几种模型和方法:

  1. PixVerse V2 模型:
    • 8 秒的视频生成需要花费 30 Credits,5 秒的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。
    • 目前仅支持 16:9 画面比例的视频生成。
    • 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。
    • 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
  2. Meta Movie Gen 模型:
    • Movie Gen 由视频生成和音频生成两个模型组成。
    • Movie Gen Video:30B 参数 Transformer 模型,可以从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。对于个性化视频,它在保持角色身份一致性和运动自然性方面取得 SOTA 性能。
    • Movie Gen Audio:13B 参数 Transformer 模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。
    • Movie Gen Video 通过预训练-微调范式完成,在骨干网络架构上,它沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频-文本和图像-文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。
  3. Sora 模型:
    • 文生视频,图生视频,视频生视频,支持多种视频定制选项,如分辨率(从 480p 到 1080p)、视频长度(从 5 秒到更长时间)和视频风格。用户可以浏览社区共享的视频,获取灵感和学习技巧(直接抄别人 prompt)。
    • 故事板:允许用户通过时间线指导视频中的多个动作,创建更加复杂的视频序列。
    • 混音和编辑:提供视频混音功能,允许用户将视频转换成新的风格。支持视频的延伸和剪辑,以及创建循环视频。
    • 高级功能:包括混合功能,可以将两个视频场景合并成一个新的场景。
    • 对于已经拥有 OpenAI Plus 或 Pro 账户的用户,Sora 的使用是包含在现有订阅中的,无需额外支付费用。OpenAI Plus 订阅每月 50 次视频生成次数;OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可以根据需要选择更高分辨率的视频生成,但这可能会减少每月的使用次数。Sora 的发布初期,对于某些地区(如欧洲和英国)可能会有延迟。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

PixVerse V2 使用教程

8s的视频生成需要花费30Credits,5s的视频生成需要花费15Credits,且只能使用PixVerse V2模型,生成时请注意模型选择。目前仅支持16:9画面比例的视频生成。[heading2]文生视频[content]点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。[heading2]图生视频[content]点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。

新王登基-Meta发布Meta Movie Gen文生视频模型

具体来说Movie Gen由视频生成和音频生成两个模型组成。Movie Gen Video:30B参数Transformer模型,可以从单个文本提示生成16秒、16帧每秒的高清视频,相当于73K个视频tokens。对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。对于个性化视频,它在保持角色身份一致性和运动自然性方面取得SOTA性能。Movie Gen Audio:13B参数Transformer模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。Movie Gen Video通过预训练-微调范式完成,在骨干网络架构上,它沿用了Transformer,特别是Llama3的许多设计。预训练阶段在海量的视频-文本和图像-文本数据集上进行联合训练,学习对视觉世界的理解。这个阶段的训练数据规模达到了O(100)M视频和O(1)B图像,用以学习运动、场景、物理、几何、音频等概念。微调阶段研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。扩散模型通过从数据分布逐渐加入噪声,然后在推理时通过逆过程去除噪声来生成样本,用大量的迭代步数逐步逼近目标分布。流匹配则是通过直接学习样本从噪声向目标数据分布转化的速度,模型只需通过估计如何在每个时间步中演化样本,即可生成高质量的结果。

视频模型:Sora

最新消息sora.com域名已经部署好[Sora实测案例](https://waytoagi.feishu.cn/wiki/MKgKw9hg8iZZp1kKYQ4c0B6unWg)2点直播链接:https://www.youtube.com/watch?v=2jKVx2vyZOY有博主已经做了提前测试This Video is AI Generated!SORA Reviewhttps://www.youtube.com/watch?v=OY2x0TyKzIQ12月10日已上线[heading2]Sora功能:[content]文生视频,图生视频,视频生视频1.视频生成:文生视频,图生视频,视频生视频支持多种视频定制选项,如分辨率(从480p到1080p)、视频长度(从5秒到更长时间)和视频风格。用户可以浏览社区共享的视频,获取灵感和学习技巧(直接抄别人prompt)2.故事板:允许用户通过时间线指导视频中的多个动作,创建更加复杂的视频序列。3.混音和编辑:提供视频混音功能,允许用户将视频转换成新的风格。支持视频的延伸和剪辑,以及创建循环视频。4.高级功能:包括混合功能,可以将两个视频场景合并成一个新的场景。[heading2]费用和订阅套餐:[content]对于已经拥有OpenAI Plus或Pro账户的用户,Sora的使用是包含在现有订阅中的,无需额外支付费用。OpenAI Plus订阅:每月50次视频生成次数。OpenAI Pro订阅:无限次慢速队列生成。500次正常速度的视频生成次数。额外信息:用户可以根据需要选择更高分辨率的视频生成,但这可能会减少每月的使用次数。Sora的发布初期,对于某些地区(如欧洲和英国)可能会有延迟。

其他人在问
🚀接着上期SOP+AI:打造职场高效能人士的秘密武器的分享,今天继续聊聊SOP+AI的应用,🎯今天的主题是“怎样利用AI节约10倍内容创作时间?”📚最近跟团队有开始运营小红书账号,就想着先给自己打造点顺手的工具,于是乎「小红书文案专家」就出生啦~🎉[heading1]一、先介绍下我们小Bot[content]🛺BOT名称:小红书文案专家功能价值:见过多个爆款文案长啥样,只需输入一个网页链接或视频链接,就能生成对应的小红书文案,可以辅助创作者生成可以一键复制发布的初稿,提供创意和内容,1
以下是关于“SOP+AI”的相关内容: 怎样利用 AI 节约 10 倍内容创作时间? 最近团队开始运营小红书账号,于是打造了“小红书文案专家”。 BOT 名称:小红书文案专家 功能价值:见过多个爆款文案,输入网页或视频链接就能生成对应的小红书文案,辅助创作者生成可一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人写初稿并生成配图。 实现思路:为自己和团队设计工作流,让 AI 按运营思路和流程工作。 一期产品功能: 1. 提取任何链接中的标题和内容。 2. 按小红书平台文案风格重新整理内容。 3. 加入 emoji 表情包,使文案更有活力。 4. 为文案配图片。 二期计划功能:持续优化升级,增加全网搜索热点功能,提炼热点新闻或事件关键信息,结合用户想要生成的内容方向输出文案和配图。 SOP+AI:打造职场高效能人士的秘密武器 案例分享:X 公司客服团队引入 SOP 和 AI 助手后,工作效率显著提升。引入 SOP 前,客服工作流程混乱,效率低下,客户满意度不高。引入 SOP 标准化操作后,效率提高。进一步引入 AI 助手,自动回复常见问题、处理简单请求,减少客服工作量,还能及时发现问题帮助优化。结果客服团队工作效率提升 30%以上,客户满意度显著提高。SOP 能提升效率、减少失误、促进协作,借助 AI 助手,SOP 制定和优化更高效智能。
2024-12-20
视频生成哪一个ai最强
目前在视频生成领域,以下几个 AI 表现较为突出: Luma AI: Dream Machine 功能包括 txt2vid 文生视频和 img2vid 图生视频,还支持 Extend 延长 4s、循环动画、首尾帧动画能力。 8 月底最新发布的 Dream Machine 1.5 增强了提示词理解能力和视频生成能力,对视频内文字的表现很强。 在 img2vid 图生视频方面,生成效果在多方面远超其他产品,如生成时长较长(5s)、24 帧/s 非常丝滑、运动幅度大且能产生相机的多角度位移、提示词中可增加无人机控制的视角变化、运动过程中一致性保持较好、分辨率高且有效改善了运动幅度大带来的模糊感。 Runway:推出了实力强劲的 Gen3 模型。 此外,以下是其他视频生成的 Top10 产品及相关数据: |排行|产品名|分类|4 月访问量(万 Visit)|相对 3 月变化| |||||| |1|InVideo|其他视频生成|736|0.118| |2|Fliki|其他视频生成|237|0.165| |3|Animaker ai|其他视频生成|207|0.076| |4|Pictory|其他视频生成|122|0.17| |5|Steve AI|其他视频生成|76|0.119| |6|decohere|其他视频生成|57.5|0.017| |7|MagicHour|其他视频生成|53.7|0.071| |8|Lumen5|其他视频生成|51|0.149| |9|democreator|其他视频生成|41.9|0.136| |10|腾讯智影|其他视频生成|35.4|0.131|
2024-12-20
在国内可以免费用的图生视频的ai工具
以下是在国内可以免费用的图生视频的 AI 工具: 1. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频,支持中文,时空理解。 3. Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以,文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持 16:9、9:16、1:1、3:4、4:3 尺寸,图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同,默认生成 3s 的视频。 4. 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸,图生视频除了不可运镜控制以外,其他跟文生视频基本相同,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品推荐: 1. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-20
图生视频的ai工具
以下是一些图生视频的 AI 工具: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上直接生成视频,由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 根据视频脚本生成短视频的 AI 工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频所需要素并生成对应素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 3. Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划内容。 5. Runway:AI 视频创作工具,能将文本转化为风格化的视频内容。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务。 关于清影的图生视频: 输入一张图片加相应提示词,清影大模型会根据提示将图片转变为视频画面。也可以只输入一张图片,清影大模型将自行发挥想象力把图片扩展为有故事的视频。有两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。若原图不够清晰,可采用分辨率提升工具。 2. 提示词要简单清晰。可以选择不写 prompt,直接让模型操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。若不明确大模型如何理解图片,推荐将照片发送到清言对话框进行识图,明确主体的描述。
2024-12-20
什么ai视频工具好用
以下是一些好用的 AI 视频工具: Runway:https://runwayml.com/ 。在真实影像方面质感好,战争片全景镜头处理出色,控件体验感好,但爱变色,光影不稳定,控制能力强,可指定局部对象设置运动笔刷。有网页和 app 方便。工具教程: Pixverse:https://pixverse.ai/ 。在高清化方面有优势,对偏风景和纪录、有特定物体移动的画面友好,能力全面,缺点是同时只能进行 4 个任务。工具教程: Haiper:https://app.haiper.ai/ 。默默无闻,只能生成 2s,但有不错的镜头,稳定性强,优点是没有并发任务限制。 Pika:https://pika.art/ 。对奇幻感画面把控好,自然,有嘴型同步功能,对二次元友好。工具教程: SVD:https://www.stablevideo.com/ 。整体略拉垮,唯一能打的是在风景片,优点是不带水印,动作幅度大,但崩坏概率大。工具教程: 此外,还有以下 AI 视频工具: 即梦:https://dreamina.jianying.com/ 。剪映旗下,生成 3 秒,动作幅度有很大升级,最新 S 模型,P 模型。工具教程: Kling:kling.kuaishou.com 。支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:https://www.vidu.studio/ 智谱清影:https://chatglm.cn/video 。开源了,可以自己部署 cogvideo 。工具教程: 美图旗下:https://www.miraclevision.com/ Neverends:https://neverends.life/create 。操作傻瓜 SD:Animatediff SVD deforum 。自己部署 Leiapix:https://www.leiapix.com/ 。可以把一张照片转动态 Krea:https://www.krea.ai/ Opusclip:https://www.opus.pro/ 。利用长视频剪成短视频 Raskai:https://zh.rask.ai/ 。短视频素材直接翻译至多语种 invideoAI:https://invideo.io/make/aivideogenerator/ 。输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频 descript:https://www.descript.com/?ref=feizhuke.com veed.io:https://www.veed.io/ 。自动翻译自动字幕 clipchamp:https://app.clipchamp.com/ typeframes:https://www.revid.ai/?ref=aibot.cn 还有一些其他的工具,如: Morph Studio:https://app.morphstudio.com/ 。还在内测 Heygen:https://www.heygen.com/ 。数字人/对口型 Kaiber:https://kaiber.ai/ Moonvalley:https://moonvalley.ai/ Mootion:https://discord.gg/AapmuVJqxx 。3d 人物动作转视频
2024-12-20
中国大陆能用的文生视频免费ai
以下是一些在中国大陆可用的文生视频免费 AI 工具: 1. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以。文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频支持中文,时空理解。 3. Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频、视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以。文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 4. 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文。文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品推荐: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-20
中国大陆能用的文生视频免费ai工具
以下是一些在中国大陆可用的文生视频免费 AI 工具: Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频支持中文,时空理解。 Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以,文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品,如: Pika:擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-20
文生视频,谁比较强?
目前在文生视频方面,PIKA1.0 表现较为出色。它启用全新模型,文生视频质量大幅提升,3D 和 2D 动画效果吊炸天,稳定性强,神情表现出色,在处理各种场景和提示词时都有惊艳的效果。例如,输入“Cinematic,happy laughing girl in office,Pixar style”瞬间就能匹配出皮克斯水平的镜头,而且在处理不规则构图的汽车行驶等场景时,光影表现极好。同时,可灵在文生视频方面也有一定特点,在多对象场景中能保持较好的形体轮廓,在处理偏真实场景的视频,如吃东西、老人神情和皮肤细节等方面表现出色,地面光影变化处理恰当,但在处理远距离和密集人群时有局限,在动画方面不是强项,处理稍长动作时会遇到挑战。
2024-12-19
文生图
以下是关于文生图的相关知识: 简明操作流程: 定主题:明确生成图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 ControlNet:可控制图片中特定的图像,如人物姿态、特定文字等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写要避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据喜好和需求选择,注意尺寸并非越大越好。 提示词: 分为内容型提示词和标准化提示词,用于描述想要的画面。例如选择 anythingV5 大模型,输入“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”等描述。 采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰,但速度越慢。 采样方法常用的有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++SDE Karras、DDIM 等,有的模型有指定算法,搭配更好用。 比例设置为 800:400,模型练图基本按 512x512 框架,太大数值可能导致奇怪构图,可通过高清修复放大图像倍率。 文生图工具: DALL·E:OpenAI 推出,可根据文本描述生成逼真图片。 StableDiffusion:开源,能生成高质量图片,支持多种模型和算法。 MidJourney:图像生成效果好,界面设计用户友好,在创意设计人群中流行。 更多工具可在 WaytoAGI 网站(https://www.waytoagi.com/category/104 )查看。
2024-12-19
nova有个图生视频的功能,但是只能生成6秒钟,我要如何组合服务去实现可以文生长视频并且也可以图生长视频呢
以下是一些实现文生长视频和图生长视频的方法: 1. 使用 PixVerse V2 模型: 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. 利用 runway: 视频的大部分片段用 runway(https://app.runwayml.com/)制作,少数的片段用的是即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。 以汽车内饰这一片段为例,登录 runway 账户后,在首页的左侧点击“Text/Imagine to Video”,中文即是“文生视频/图生视频”。点击 2 处将汽车内饰的图片上传到 runway 中。其中 1 处可以更改生成图片所用到的大模型版本,数字越大代表模型越强。目前只有 Gen2 每天有免费额度。3 处用于输入提示词。4 处可以修改生成的视频时长为 5s 或 10s,时长越长,生成的效果可能越不稳定。5 处可以看到生成的结果。提示词方框中输入的运镜方式“Roll Clockwise Shot slowly”是,即摄像机围绕垂直轴顺时针旋转,常用于创造动态的、有时令人眩晕的视觉效果。不想动脑的话,每个片段的运镜方式根据分镜表的建议来即可。运镜提示词该如何填写呢?可以参照:。runway 对于这些专有的运镜方式理解的很好。其他的提示词可以不填,先看看效果,如果效果不好,再补充简短的提示词重新生成视频。很多时候提示词过多,生成的视频就很怪异,像吃了毒蘑菇后看到的幻觉一样。改变提示词,改变生成时长,多抽卡几次,毕竟 runway 会员可以无限抽卡。 3. 海外产品 viva: viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频。
2024-12-19
图文生视频工具
以下是一些图文生视频工具: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑,有免费额度。支持文生视频、图生视频、视频生视频,提示词使用中文、英文均可,文生视频支持正向提示词、反向提示词、自动配音效、运镜控制、运动强度控制、帧数选择,支持多种尺寸,可设置提示词关联性、种子值。生成好的视频可以延长时间、放大,默认生成 3s 的视频。相关教程:https://waytoagi.feishu.cn/wiki/V150wUonIiHafQkb8hzcO1E5nCe 。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频,是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 Morphstudio 的使用教程: 1. MorphVideoBot 的 Text to Video 命令:/video 。示例:/video Hello World!ar 16:9motion 5camera zoom infps 30s 5 。 2. MorphBot 的 Image to Video 命令:/animateA cat is walkingar 16:9motion 5camera pan upfps 30 。 参数说明: ar(MorphVideoBot 专用):设置视频的宽高比,如 16:9、4:3、1:1、3:4、9:16 。 motion:调整视频中运动的强度,值越低运动越轻微,值越高运动越夸张。 camera:控制相机运动,如 Zoom(缩放):camera zoom in/out;Pan(平移):camera pan up/down/left/right;Rotate(旋转):camera rotate clockwise/counterclockwise 或 camera rotate cw/ccw;Static(静止):camera static 。 fps:设置视频的帧率,默认每秒 24 帧。 s(MorphVideoBot 专用):设置视频的时长(秒)。 提示:更详细和描述性的提示可能会在生成的视频中产生更好的结果。可以自由尝试不同的设置以达到期望的效果。
2024-12-18
推荐一个AI工具,帮助我每天自动执行以下步骤:从本地上传文件给大模型,该文件内含有新闻网页链接,大模型读取链接并汇总内容
以下为您推荐的 AI 工具可能有助于您实现每天自动执行从本地上传文件给大模型,并让大模型读取文件内新闻网页链接并汇总内容的需求: 1. AI 拍立得(Pailido): 特点:即拍即得,简化流程,操作直观高效。 体验方式:微信小程序搜索“Pailido”。 交互逻辑:用户选择拍摄场景类型并拍照,AI 自动识别和分析照片内容信息,依据预设场景规则迅速生成符合情境的反馈。 实现场景: 图片转成文本:用户上传图片后,大模型根据选择的场景生成相关文字描述或解说文本,可用于生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:用户上传图片后,大模型按照指定风格快速生成图像的转绘版本,适应不同风格和场景需求,如图片粘土风、图片积木风、图片像素风等。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看:https://www.waytoagi.com/sites/category/2 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-21
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20
多图生成视频方案
以下是关于多图生成视频的几种方案: 1. 方法一: 利用 MJ 画图,先画出来一张想要的底图。 使用 InsightFaceSwap 这个插件来换脸或者让脸部更像,但因该插件对多人脸部同时处理效果不好,所以先需要进行图片的分割裁剪,分别利用插件处理后,再把图片重新缝合。 最后利用可灵或者其他软件来让图片动起来。 2. 方法二: 直接在网上寻找能够融合两张照片的软件或者项目,直接对图片进行融合。如果没有,就纯 P 图,然后利用图生视频的项目完成内容。 3. 利用现有的知识和工具,如具备 DiT(能够进行图片生成),把视频生成看作独立的图片生成,使用 DiT 生成多帧图片然后串起来就是视频,但这样可能会导致生成的多帧图像不连贯。 4. 使用视频工具 VIGGLE: Mix 模式:先上传一个视频和一张角色图像,Viggle 会自动将视频的动态赋予给这个角色,形成一段新视频,能模拟出角色的 3D 状态,准确还原复杂动作。 Multi 模式:通过视频的动作,将上传的多个角色进行识别并赋予动作,形成一段新视频。 Move 模式:将视频的动作直接映射在图片人物身上,实现“让静态图动起来”。 您可以根据实际需求和操作难度选择适合您的方案。
2024-12-19
免费的图生视频软件有推荐吗
以下是为您推荐的免费图生视频软件: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果您熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Kaiber:这是一款视频转视频 AI,能够将原视频转换成各种风格的视频。 此外,您还可以通过以下途径获取更多相关信息: 1. 更多的文生视频的网站可以查看: 2. Vidu 全球上线,Web 端访问:https://www.vidu.studio/ ,具有极速生成、动漫风格、角色可控、精准理解、大片质感等特点。 关于 SVD 图生视频模型的下载和使用: 1. 下载模型:最新模型在前面,建议除开第一个模型都下载。 https://huggingface.co/stabilityai/sv3d/ 【Stable Video 3D模型,最新模型,生成图片 3D 旋转视频,暂时没测试是否能支持】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vidxt11/ 【SVD 1.1 XT 版,支持生成 1024x576 分辨率每秒 14 帧视频,优化了文件大小,提高生成效率】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vidxt 【SVD 1.0 XT 版,支持生成 1024x576 分辨率生成每秒 25 帧视频】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vid 【SVD1.0 版,支持生成生成 1024x576 分辨率每秒 14 帧视频】 2. 放置模型:下载好的 SVD 图生视频模型放置在指定文件夹下。 3. 使用方法:Controlnet 中上传原图选择深度,预处理器可选择不同算法,右侧深度模型记得选择深度模型,获得需要的深度图。结合大模型和提示词,利用文生图就可以生成图片。然后上传制作好的图片,选择 SVD 图生视频大模型,设置参数,生成视频。 内容由 AI 大模型生成,请仔细甄别。
2024-12-19
图生视频的提示词怎么写
图生视频的提示词写作要点如下: 基础提示词结构为主体+运动。只描述想动的部分,避免对静止部分过多描述。当主体有突出特征时,可加上突出特征来更好定位主体,比如老人、戴墨镜的女人等。 需基于输入的图片内容来写,明确写出主体以及想做的动作或运镜,提示词不要与图片内容/基础参数存在事实矛盾。 对于 PixelDance V1.4,支持时序性的多个连续动作以及多个主体的不同动作,可以尝试写主体+动作 1+动作 2,主体 1+动作 1+主体 2+动作 2 等。 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。 提示词要简单清晰,可选择不写 prompt,直接让模型自己操控图片动起来;也可以明确想动起来的主体,并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解图片,推荐将照片发送到清言对话框进行识图,明确主体的描述。
2024-12-13