Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

最新的文生视频/图生视频能力是什么

Answer

以下是关于最新的文生视频/图生视频能力的介绍:

PIKA1.0 启用了全新的模型,文生视频质量大幅提升,例如输入“Cinematic,happy laughing girl in office,Pixar style”的 Prompt 能瞬间生成匹配皮克斯水平的镜头,且稳定性和神情表现出色,爆杀市面上所有的 AI 视频。在文生图方面,新模型也极其稳定。同时,图生视频效果很棒,人的一致性逆天,语义理解强,动作幅度大。此外,还有一些小技巧,如在右下角第三个设置里,负面提示(Negative prompt)可以常驻“blurry,out of focus,twisted,deformed”,提示词相关性别设 5 - 15 之间效果较好。

这半年来,除传统的文生视频、图生视频能力迭代外,主要技术发展还围绕着通过转绘改变画风、视频内人物识别和替换方向。在服务头部创作者方面,未来产品会强化编辑器能力和视频细节可控性,并智能化后期制作任务。影视后期方向,可将动捕演员表演转化为虚拟角色提高特效制作效率。专业领域,创作者能通过草图分镜验证效果。在 C 端大众消费侧,AI 视频有望在小说、网文阅读、短情景剧等内容消费方向发挥潜力,人物识别和替换可衍生电商平台虚拟试衣间能力。Viggle、DomoAI 的产品中的模板套用能力若低成本开放在短视频产品中,可能带来新的爆发周期。

Stable Video Diffusion 1.1 新模型以及 stablevideo.com 开始内测,清晰度、控制方式和效果都有很大提升,目前提供文生视频、图生视频两种方式,文生视频先生成 4 张图像选一张用于生成视频,图生视频提供几种控制方式(仅开放了一部分),另外目前提供 17 种风格。

Content generated by AI large model, please carefully verify (powered by aily)

References

开发:PIKA1.0上手评测 - 你就是传奇

能明显感受到,PIKA1.0是启用了一个全新的模型,甚至我感觉不是基于旧有的迭代,而是完全重新做的一个全新的模型。强非常非常多。3D和2D的动画效果更是吊炸天。所以他们的新模型,我会多花一些篇幅和笔墨,来展现一下。首先,文生视频的质量得到了大幅度的提升。我直接写了一段:Prompt:Cinematic,happy laughing girl in office,Pixar style瞬间,匹配皮克斯水平的镜头就出来了。要知道,我只花了1分钟。这效果,我说实话,太特么吓人了。。。。。。而且,这稳定性,这神情。。。爆杀市面上所有的AI视频。再来!A cat flying a plane,Cartoon style在文生图这块,PIKA1.0的新模型稳定的令人害怕。Cinematic,extreme close-up of cars on the road in a jungle,3D rendering不规则构图的汽车行驶在道路上,这个前进的镜头依然稳定的可怕,车上的光影更是表现的极好。无敌。真的无敌。同时,有两个小技巧是,右下角第三个设置里,负面提示(Negative prompt)可以常驻:blurry,out of focus,twisted,deformed。提示词相关性别设太高,可以5~15之间,自己实测下来效果最好。再来说图生视频。图生视频这块,效果也依旧棒。放几个case。(这里因为GIF图比较大所以只能放了每秒10帧的GIF,所以看起来可能有一些卡,这并不是PIKA的原因。)说实话,Runway原本剩的唯一优势就画质好+一致性强点了。。。但是你看看现在的PIKA1.0。。。。。。人的一致性已经逆天了,再加上它强到爆的语义理解,以及幅度巨大的动作。。。。咋比啊。。。这PIKA1.0新模型的质量,特别是它最擅长的3D和3D的动画的质量,真的让人激动到无以复加。

AI视频爆发式更新- 近半年闭源产品趋势

这半年来,除传统的文生视频、图生视频能力迭代外,当前的主要技术发展还围绕着通过转绘改变画风、视频内人物识别和替换方向。1.在服务头部创作者方面,各家产品未来会逐渐转向编辑器能力增强,强化视频细节可控性,并逐渐将剪辑、音效生成匹配等后期制作任务智能化,逐步转变当前AI创作者跨N个产品完成创作的现状。2.影视后期方向,未来可以将动捕演员的表演直接转化为虚拟角色,大大提高特效制作效率。3.专业领域,创作者未来可以快速通过草图分镜验证效果。例如动画制作产品Fable在今年4月试水了Prism Beta功能。用户可以制作简单的几何图形串联的动画逐帧渲染实现更丰富的动画效果。但目前效果还不够成熟。4.随着实时生成能力的进一步提升,生成成本的下降,AI实验性艺术在博物馆、展览等互动应用将会增多。5.在C端大众消费侧,看好AI视频在小说、网文阅读、短情景剧等内容消费方向发挥潜力;另外人物识别和替换也可以衍生电商平台虚拟试衣间能力。6.Viggle、DomoAI的产品中的模板套用能力若以更低成本开放在短视频产品中,可能会带来短视频平台效果模板新的爆发周期。

爆肝博主 ZHO

【Zho】Stable Video Diffusion 1.1新模型以及stablevideo.com开始内测了,清晰度、控制方式和效果都有很大提升,之前注册过stabilityai会员的应该会受到内测申请,大家记得查看邮件目前提供文生视频、图生视频两种方式,文生视频是先生成4张图像,选一张用于生成视频,图生视频提供几种控制方式(仅开放了一部分),另外目前提供17种风格这是初测的2段,生成的视频为24帧1024*576,耗时1.5min,我的初步评价是:Crazy!!!之前加过membership的应该都会收到邀请邮件可以检查下邮箱我是自己去申请之后看邮箱才发现已经有邀请了[17631_1706891837.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/HpBtb1jvMoBKjrxYT3wcTnCAn4e?allow_redirect=1)而且这次开放的这个网站界面也舒服比之前任何stabilityai的网站都好网站里现在好作品真不少清晰度是真的高很多应该都是用MJ V6原图生成效果很好[17669_1706896276.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/O8QBb7WWUo7ZSbxnIQEcFtwmnWc?allow_redirect=1)[17662_1706895848.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/FdMbbJ4vgoQiyoxbxmZc9xfEn4d?allow_redirect=1)

Others are asking
短视频文案提取和改写
以下是关于短视频文案提取和改写的相关内容: 智能体功能实现: 卖点转化模块:作用是将卖点转化为用户视角的买点,目的是用户视角的内容更易打动用户,提升营销效果。实现方式包括用户选择改写时强调的情绪价值点,并将相应内容添加到大模型的用户提示词,以及从产品名称、产品描述和通用性/独特性/保障性卖点,利用大模型转化为对应的买点。 营销内容产出模块:作用是利用总结的买点,结合产品信息,产出小红书文案和短视频脚本。目的是使用户提炼卖点、转化卖点之后产出可直接使用的高质量营销内容。实现方式包括使用循环节点产出任意数量的文案内容,将大模型的随机性调到最高以确保多次产出内容的差异性,用数组分别保存小红书文案和短视频脚本,即使两种内容交叉生成,最终也能在文档中分开显示。 文档保存模块:作用是将产品名称,以及产出的所有内容,包括卖点、买点、小红书文案、短视频脚本保存到飞书文档。目的是供未来重复使用和决策支持,并方便对产出内容进行管理。实现方式包括使用 create_document 插件创建新的飞书文档,并填充内容,使用文本处理节点整合所有产出内容,并调整格式。 电商带货本地生活: 用 ChatGPT 生成短视频选题文案:表明身份、描述需求、提出回答要求,以美妆行业为例展开。 用 ChatGPT 生产短视频文案:将需求与框架结合,让 ChatGPT 生成短视频文案。 生成虚拟数字人短视频:打开相关网站,输入内容选项,选择头像、国家和声音,点击 Create Video 生成视频,结合产品讲解后即可发布进行视频带货。 《AI 你·南京》AIGC 城市宣传 MV 全流程制作解析: 文案创作:最初打算用旁白朗诵方式,对文案要求高。直接让 GPT 写文案结果平淡,需更具体提需求。利用 360 浏览器字幕提取功能捕捉《爱我中华》视频文案,让 kimi 和 GPT 分析学习,对比两者结果,发现 kimi 对中文理解和写作能力更突出。整合两段文案并调整,让文案更顺口,还可让 AI 输出简单的画面分镜。
2025-02-17
免费图生视频AI有哪些
以下是一些免费的图生视频 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上生成视频,由 Stability AI 开源。 3. Adobe Firefly:支持文生视频、图生视频、视频翻译,免费用户赠送生成 2 个视频。访问。 4. 混元:腾讯视频模型,目前只支持文生视频,图生视频即将上线。 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2025-02-17
Ai生图和生视频和电脑算力的关系
AI 生图和生视频与电脑算力密切相关。 在生成图像和视频的过程中,需要强大的算力来处理复杂的计算任务。例如,像 PIKA1.0 这样的模型,在文生图和文生视频方面表现出色,其高质量和稳定性的输出依赖于足够的算力支持。 拥有大规模 GPU 集群、超算集群、云渲染平台等强大算力资源的企业或个人,能够更高效地完成生图和生视频的任务。 同时,未来算力的重点将从训练模型转向增强推理能力,这也将对 AI 生图和生视频的发展产生重要影响。 此外,一些新的模型和技术不断涌现,如 o1 推理模型,其在给出最终结果前会反复推演和验证,以提供更准确的结果。而像 OpenAI 发布会公布的 Sora v2 功能,能够生成 1 分钟长度的视频,并支持多种形式的转换,提升了多媒体创作的灵活性。 总之,电脑算力是实现高质量 AI 生图和生视频的重要支撑和保障。
2025-02-17
如何制作动漫角色工作的AI视频
以下是制作动漫角色工作的 AI 视频的相关方法和建议: 一、准备工作 1. 想出点子 最佳免费选项: 付费选项:4.0,但由于与互联网连接,必应可能更好 2. 选择工具 用于在视频中为人脸制作动画的。 用于从文本创建视频的 最佳语音克隆: 二、制作流程 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 三、解决技术问题的策略 1. 面对一致性的挑战时,尽可能保持叙事性内容中角色的关键特征和外轮廓的一致。 2. 保持角色的位置一致性。 3. 减少故事中需要观众记住的角色数量。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。同时,深度伪造是一个巨大的问题,这些系统需要合乎道德地使用。
2025-02-17
音频驱动视频人物口型
以下是关于音频驱动视频人物口型的相关信息: PixVerse V3 : 本次更新内容丰富,包括已有能力升级,提供更精准的提示词理解能力和更惊艳的视频动态效果。 支持多种视频比例,如 16:9、9:16、3:4、4:3、1:1。 Style风格化功能重新回归升级,支持动漫、现实、粘土和 3D 四种风格选择,同时支持文生视频和图生视频的风格化。 全新上线了 Lipsync 功能,在生成的视频基础上,允许用户输入文案或上传音频文件,PixVerse 会自动根据文案或音频文件内容,对视频中的人物口型进行适配。 还有 Effect 功能,提供 8 个创意效果,包括变身僵尸、巫师帽、怪兽入侵等万圣节主题模板,一键实现创意构思。并且 Extend 功能支持将生成的视频再延长 5 8 秒,且支持控制延长部分的内容。 字节跳动开源的 LatentSync : 是精准唇形同步工具,能够自动根据音频调整角色嘴型,实现精准口型同步,无需复杂中间步骤。 提出“时间对齐”技术,解决画面跳动或不一致问题,效果显著。 具有开箱即用的特点,预训练模型加持,操作简单,支持高度定制化训练。 GitHub 链接:https://github.com/bytedance/LatentSync 论文链接:https://arxiv.org/pdf/2412.09262
2025-02-16
如何用ai生成海报和视频
以下是使用 AI 生成海报和视频的方法: 1. 利用飞书多维表格字段插件生成海报: 第一步,用 AI 插件理解图片。上传参考的海报图片,在飞书多维表格中选择字段捷径,于 AI 中心找到智谱 AI 的内容生成插件。配置提示文本,如“详细描述下海报中的内容”,选择上传图片的所在列和模型 glm4v。很快 AI 就能将海报内容整理并填充到对应列中。 第二步,生成视频的指令。用飞书自带的插件总结宣语,生成视频的 prompt 指令。先将海报内容总结为活动宣传语,自定义总结要求为:根据活动海报的描述文案,总结为一句话的活动宣传语,删除日期时间,把活动的品牌统一更换为“智谱 AI”,采用小红书风格,有鲜明记忆点且不超过 50 字。然后使用飞书自带的自定义 AI 插件,输入指令生成视频所需的 prompt 指令,文案引用刚才的总结宣传语,要求画面描述开头包含“卡通风格,镜头从远推进:”,用英文生成,适合模型指令格式且不超过 100 个字。 2. 在 Adobe 产品中生成带有文本提示和图像的视频:在 Advanced 部分,可使用 Seed 选项添加种子编号来控制 AI 创建内容的随机性。若使用相同的种子、提示和控制设置,能重新生成类似的视频剪辑。选择 Generate 进行生成。 3. 关于一些基础通识: 多模态大模型基于大圆模型,能识别页面组件结构和位置绝对值信息,由解码器、backbone、Generator 等部件组成,左侧多模态理解,右侧生成输出。 stable diffusion 模型是生成模型,通过加噪和去噪实现图像的正向扩散和反向还原,可应用于带货商品图生成、模特服装展示、海报生成、装修设计等场景。 吉梦 AI 提供 AI 视频生成等能力,吐司是类似的在线生成平台,二者都可通过输入提示词生成图片。 AI 视频生成原理主要基于 Sara 的整体架构,采用 diffusion Transformer 架构,以扩散模型通过随机造点、加噪和去噪得到连续图像帧。Meta 的视频生成模型能生成视频和声音,可替换视频中的物体和人脸,其把 diffusion 架构换成纯 transformer 架构,基于 LLAMA3 训练。
2025-02-16
有哪些免费的文生图中文软件
以下是一些免费的文生图中文软件: 1. 豆包 App 支持文生图中文文字生成。 2. Stability AI 推出的基于 Discord 的媒体生成和编辑工具可用于文生图,您可以通过以下步骤使用: 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 进入 ARTISAN 频道,任意选择一个频道。 输入/dream 会提示您没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。输入/dream 提示词,这部分和 MJ 类似,可选参数有五类,包括提示词(必填项)、负面提示词(选填项)、种子值(选填项)、长宽比(选填项)、模型选择(选填项)、张数(选填项)。完成后选择其中一张。 3. 您还可以参考以下教程: SD 做中文文字生成的教程: 找到一款喜欢的字体,写上主题例如“端午”。 打开 SD,选择文生图,输入关键词咒语。 打开 Controlnet,启用 lineart 和 canny 固定字体,如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:29 60 。 直接生成。这里可以举一反三,选择一些水果模型,珠宝模型,毛毡等等快来试一试吧,附免费参数。
2025-02-16
免费的中文软件 文生图
以下为免费的中文文生图软件 Stable Diffusion 的相关信息: 公司介绍:相比较于 DALLE 等大模型,Stable Diffusion 让用户使用消费级的显卡便能够迅速实现文生图。它完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。其第一个版本训练耗资 60 万美元,资金支持来自成立于 2020 年的 Stability AI 公司,创始人兼 CEO 是 Emad Mostaque。 文生图使用: 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 进入 ARTISAN 频道,任意选择一个频道。 输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。 输入/dream 提示词,这部分和 MJ 类似。 可选参数有五类: prompt(提示词):正常文字输入,必填项。 negative_prompt(负面提示词):填写负面提示词,选填项。 seed(种子值):可以自己填,选填项。 aspect(长宽比):选填项。 model(模型选择):SD3,Core 两种可选,选填项。 Images(张数):1 4 张,选填项。 教程示例: 作者: 作者 步骤: 1. 找到一款喜欢的字体,写上主题例如“端午”。 2. 打开 SD,选择文生图,输入关键词咒语。 3. 打开 Controlnet,启用 lineart 和 canny 固定字体,如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 4. 打开高清修复,分辨率联系 1024 以上,步数:29 60 。 5. 直接生成就搞定啦。这里可以举一反三,选择一些水果模型,珠宝模型,毛毡等等快来试一试吧。 6. 附免费参数: Checkpoint:Chilloutmix Controlnet:lineart + canny + depth 正向咒语:watermelon,Art fonts,masterpiece,best quality,Smile,Lensoriented 反向咒语:NSFW,Cleavage,Pubic Hair,Nudity,Naked,Au naturel,Watermark,Text,censored,deformed,bad anatomy,disfigured,poorly drawn face,mutated,extra limb,ugly,poorly drawn hands,missing limb,floating limbs,disconnected limbs,disconnected head,malformed hands,long neck,mutated hands and fingers,bad hands,missing fingers,cropped,worst quality,low quality,mutation,poorly drawn,huge calf,bad hands,fused hand,missing hand,disappearing arms,disappearing thigh,disappearing calf,disappearing legs,missing fingers,fused fingers,abnormal eye proportion,Abnormal hands
2025-02-16
文生图
以下是关于文生图的详细教程: 定主题:确定您需要生成的图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:基于生成内容寻找重叠的 lora,以控制图片效果和质量,可参考广场上优秀帖子中使用的 lora。 ControlNet:可控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 即可。 Prompt 提示词:用英文书写想要 AI 生成的内容,使用单词和短语组合,无需管语法,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文书写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开。 采样算法:一般选择 DPM++2M Karras 较多,也可参考 checkpoint 详情页中模型作者推荐的采样器。 采样次数:选择 DPM++2M Karras 时,采样次数通常在 30 40 之间。 尺寸:根据个人喜好和需求选择。 在不同的工具中,如 Tusiart 和 Liblibai,操作流程大致相同,但在一些细节上可能有所差异: Tusiart: 定主题 选择 Checkpoint 选择 lora ControlNet(高阶技能,后续学习) 局部重绘(下篇再教) 设置 VAE Prompt 提示词 负向提示词 Negative Prompt 采样算法 采样次数 尺寸 Liblibai: 定主题 选择 Checkpoint 选择 lora 设置 VAE CLIP 跳过层(设为 2) Prompt 提示词 负向提示词 Negative Prompt 采样方法 迭代步数 尺寸 生成批次(默认 1 批)
2025-02-16
怎么提问文生图
以下是关于文生图提问的相关内容: 在 Coze 中,文生图的开始和结束节点是必需的。节点参数方面,默认绘制 10881088 的方图,最大能画 17281728 的方图,最小 576567,像素区间内各种比例可任选。Ratio 是程序员常用的“枚举”操作。试用效果方面,如“1 girl”等提示词实测效果偏向网红动漫风,也支持中文提示词。但在写入现实主义时可能会遇到风控,可尝试去掉相关关键字。 对于【SD】文生图,提示词如 等。 关于提示词的其他方面,如提示词快闪答疑中,未涉及太多与文生图直接相关的内容。
2025-02-13
文生图人物一致性
以下是关于文生图人物一致性的相关内容: 在使用 ControlNet 进行文生图时,首先进入文生图界面填写提示词生成一张图。然后将图片拖入 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。在没有明确指向性提示词的情况下,人物形象能保持一致,但表情、动作、服装会有随机不同程度的变化。可以通过添加关键词来给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等,例如添加“红裙子”“黑色校服、哭泣”“抱手、生气”“在花丛中奔跑、开心”“红色棒球帽,时尚卫衣,在商场逛街”。通过一系列测试,这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。 另外,在 PIKA1.0 新模型中,人的一致性已经逆天,再加上其强大的语义理解和大幅度的动作,在文生图方面表现出色。
2025-02-11
文生视频提示词
以下是一些关于文生视频的提示词示例: “April Fool's scare box,which seems to pop up a clown head,prank,fun,interesting” “姑苏城外寒山寺,夜半钟声到客船” 同时,需要注意的是,上传的图片大小可能会影响到输出的视频大小。
2025-02-10
图生图, 如何保持幻想生物形象一致性
要在图生图中保持幻想生物形象的一致性,可以参考以下方法: 1. 对于 Midjourney ,可以采用特定的名人或有特殊属性的人物形象,先确定好影片风格,比如皮克斯动画风格,然后确定好人物形象,如角色的发型、穿着等细节。 2. 利用 Midjourney 的新功能 Cref ,先跑一张主角的定妆照,在需要出现主角人物的地方扔进去 Cref ,以保持发型、人脸、衣服等的一致性。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,尤其是亚洲老人的一致性效果相对较差,且 Cref 在画面的审美和构图上有一定的破坏性,所以原则上能不用就不用,比如只有背影时,简单描述即可。 3. 生成动物形象,动物相对更容易保持一致性。
2025-02-14
图生图, 如何保持生物形象一致性
在图生图中保持生物形象一致性,有以下几种方法: 1. 对于人物和场景一致性问题,可以采用生成动物的方式,动物相对容易保持一致性。 2. 选择特定的名人或具有特殊属性的人物。 3. 确定好影片风格,如皮克斯动画风格。 4. 先确定好人物形象,如明确角色的发型、穿着等特征。 5. 使用 Midjourney 的新功能 Cref,在需要出现主角人物的地方,保持发型、人脸、衣服等特征。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性效果相对较差,尤其对于亚洲老人,而且 Cref 在画面的审美和构图上有一定破坏性,原则上能不用则不用。例如只有背影时,简单描述特征即可。
2025-02-14
图生视频指令参考
以下是关于图生视频的指令参考: Morphstudio 中: 文生视频:提示词指令为“/video”。举例:“/video 你好世界比例 16:9动作幅度为 5镜头拉近每秒 30 帧秒数为 5 秒” 图生视频:提示词指令为“/animate一只在行走的猫比例 16:9动作幅度为 5相机向上移动每秒 30 帧” 参数说明: “ar”(只针对 MorphVideo 机器人):用来设置视频的画面比例,如 16:9、4:3、1:1、3:4、9:16 等。 “motion”:调整视频中的运动强度,数值越低运动越微妙,数值越高运动越夸张。 “camera”:控制摄像头移动,如 Zoom(镜头拉近/拉远)、Pan(摄像机向上/向下/向左/向右移动)、Rotate(相机顺时针旋转或逆时针旋转)、Static(相机静态)。 “fps”:视频的帧率,默认每秒 24 帧。 “s”(只针对 MorphVideo 机器人):设置视频的时长,单位是秒。 此外,还有其他案例: Vidu 大家测试中,有“公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方”“小孩子向画面右侧奔跑,后面腾起一路尘土”“公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着”等提示词生成的视频效果。 桂大羊的教程中,通过性格特征和时代背景描绘人物提示词、上传角色参考图,根据剧本创作提取场景提示词,采用文生图模式并进行垫图操作,确立台词、剧本、风格、人物形象、画面场景后,使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘动态内容,可生成 3 秒钟视频,运镜类型可根据剧本镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-13
图生视频指令
以下是关于图生视频的指令: 1. Morphstudio: 文生视频:提示词指令为`/video`,举例:`/video 你好世界比例 16:9动作幅度为 5镜头拉近每秒 30 帧秒数为 5 秒` 图生视频:提示词指令为`/animate一只在行走的猫比例 16:9动作幅度为 5相机向上移动每秒 30 帧` 参数说明: `ar`(只针对 MorphVideo 机器人):用来设置视频的画面比例,如 16:9、4:3、1:1、3:4、9:16 等。 `motion`:调整视频中的运动强度,数值越低运动越微妙,数值越高运动越夸张。 `camera`:控制摄像头移动,包括 Zoom(镜头拉近/拉远)、Pan(摄像机向上/向下/向左/向右移动)、Rotate(相机顺时针旋转或逆时针旋转)、Static(相机静态)。 `fps`:视频的帧率,默认每秒 24 帧。 `s`(只针对 MorphVideo 机器人):设置视频的时长,单位是秒。 2. Runway: 图片搞定之后,拖到 runway 里面去图生 4s 视频。(runway 是收费的,可在闲鱼或淘宝买号找免费的) 进入 runway 官网首页,点击 start with image,然后直接将图片拖进来。 动画幅度尽量用 3,5 有时候会乱跑。 啥都不用改,直接点击生成即可。 注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。 直接点删除,然后重新上传下面的图即可(最多可以放几个没数,可自行测试) 3. Pika: 生成视频频道在 Discord 上,点击邀请链接(https://discord.gg/pika)加入频道。 生成视频的指令: `/create`为文字生成视频指令。 `/animate`为图片生成视频指令。 `/encrypt_image`为图片+文字生成视频指令。 常用指令参数: `gs xx`:引导比例,较高的值使其与文本更相关(推荐范围为 824)。 `neg xxx`:负面提示(指定在视频中不希望出现的内容)。 `ar xx:xx`:宽高比(例如 16:9、9:16、1:1、4:5)。 `seed xxx`:生成过程中增加一致性的种子数。 `motion xx`:所需运动强度(仅支持 0/1/2)。 `fps xx`:视频的帧率。
2025-02-13
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
最新的AI行业动态和进展有哪些,包含2025年
以下是关于最新的 AI 行业动态和进展(包含 2025 年)的内容: 2024 年: 图片超短视频的精细操控:包括表情、细致动作、视频文字匹配。 有一定操控能力的生成式短视频:风格化、动漫风最先成熟,真人稍晚。 AI 音频能力长足进展:带感情的 AI 配音基本成熟。 “全真 AI 颜值网红”出现,可以稳定输出视频,可以直播带货。 游戏 AI NPC 有里程碑式进展,出现新的游戏生产方式。 AI 男/女朋友聊天基本成熟:记忆上有明显突破,可以较好模拟人的感情,产品加入视频音频,粘性提升并开始出圈。 实时生成的内容开始在社交媒体内容、广告中出现。 AI Agent 有明确进展,办公场景“AI 助手”开始有良好使用体验。 AI 的商业模式开始有明确用例:数据合成、工程平台、模型安全等。 可穿戴全天候 AI 硬件层出不穷,虽然大多数不会成功。 中国 AI 达到或超过 GPT4 水平;美国出现 GPT5;世界上开始现“主权 AI”。 华为昇腾生态开始形成,国内推理芯片开始国产替代(训练替代要稍晚)。 AI 造成的 DeepFake、诈骗、网络攻击等开始进入公众视野,并引发担忧。 AI 立法、伦理讨论仍然大规模落后于技术进展。 2025 2027 年: AI 3D 技术、物理规则成熟:正常人无法区别 AI 生成还是实景拍摄。 全真 AI 虚拟人成熟:包含感情的 AI NPC 成熟,开放世界游戏成熟;游戏中几乎无法区别真人和 NPC。 AR/VR 技术大规模商用。 接近 AGI 的技术出现。 人与 AI 配合的工作方式成为常态,很多日常决策开始由 AI 来执行。 AI 生产的数据量超过全人类生产数据量,“真实”成为稀缺资源。 具身智能、核聚变、芯片、超导、机器人等技术有明显进展突破。 “人的模型”出现,出现“集中化 AGI”与“个人 AGI”的历史分叉。 AI 引发的社会问题开始加重,结构性失业开始出现。 AGI 对于地缘政治的影响开始显露。 此外,还有以下相关动态: 算力瓶颈不只是单纯的技术和建设问题,而是影响整个行业竞争格局的重要变量。 逐渐进入多模态灵活转换的新时代,实现文本、图像、音频、视频及其他更多模态之间的互相理解和相互转换。 人类劳动形式逐步“软件化”,复杂劳动被抽象为可调用的软件服务,劳动流程被大幅标准化和模块化,劳动能力像“即插即用”的工具一样易于获取。 AI 行业目前仍处于严重亏损的阶段,商业化进程仍有巨大提升空间。 云厂商是产业链中毋庸置疑的“链主”。 2024 年,头部 AI 应用的品类变化并不显著。创意工具(如图像和视频内容创作)依然占据最大比重。To P(面向专业用户)应用展现出强大的市场潜力,ToB(面向企业)应用发展路径相对复杂,ToC 应用面临较大的挑战。 在 AI 应用领域,Copilot 和 AI Agent 是两种主要的技术实现方式。 北美和欧洲贡献了 AI 移动应用市场三分之二的份额,众多中国 AI 公司积极出海。 2024 年 10 月的大事记包括: Gartner 发布 2025 年十大战略技术趋势。 DeepSeek 开源多模态 LLM 框架 Janus。 司南开源大模型能力评估模型 CompassJudger。 Anthropic 发布新功能 computer use,发布 Claude 3.5 Haiku,更新 Claude 3.5 Sonnet。 Stability AI 发布 Stable Diffusion 3.5。 x.AI 正式推出 API。 ComfyUI V1 官方桌面版开放内测。 华为发布纯血操作系统鸿蒙 OS NEXT。 Jina AI 推出高性能分类器 Classifier API。 OpenAI 发布图像生成模型 sCM。 Midjourney 上线外部图片编辑器。 Runway 发布动画视频功能 ActOne。 Ideogram 推出 AI 画板工具 Canvas。 Genmo 开源视频生成模型 Mochi 1。 荣耀发布操作系统 MagicOS 9.0。 美国 14 岁少年与 C.AI 聊天后离世。 新华社发文表示警惕「AI 污染」乱象。 港中文&趣丸推出 TTS 模型 MaskGCT。 科大讯飞发布讯飞星火 4.0 Turbo。 阿里通义代码模式开始内测。 Anthropic Claude 新增数据分析功能。 北京市大中小学推广 AI 学伴和 AI 导学应用。 稚晖君开源「灵犀 X1」全套资料。 OpenAI 高管 Miles Brundage 离职。
2025-02-17
最新的AI行业动态和进展有哪些
以下是最新的 AI 行业动态和进展: 1. 《2024 年度 AI 十大趋势报告》发布,其中提到大模型创新方面,架构优化加速涌现,融合迭代大势所趋;Scaling Law 泛化方面,推理能力成皇冠明珠,倒逼计算和数据变革;AGI 探索方面,视频生成点燃世界模型,空间智能统⼀虚拟和现实;AI 应用格局方面,第⼀轮洗牌结束,聚焦 20 赛道 5 大场景;AI 应用竞争方面,多领域竞速运营大于技术,AI 助手兵家必争;AI 应用增长方面,AI+X 赋能类产品大干快上,原生 AI 爆款难求;AI 产品趋势方面,多模态上马,Agent 席卷⼀切,高度个性化呼之欲出;AI 智变千行百业,左手变革生产力,右手重塑行业生态;AI 行业渗透率方面,数据基础决定初速度,用户需求成为加速度;AI 创投方面,投融资马太效应明显,国家队出手频率提升。 2. 2024 年 9 月的 AI 行业大事记: 9 月 12 日:李继刚再现神级 Prompt,玩法持续翻新;Mistral 发布首个多模态模型 Pixtral 12B。 9 月 13 日:商汤 Vimi 相机开放微博小程序;元象开源中国最大 MoE 大模型 XVERSEMoEA36B;OpenAI 发布 o1 模型。 9 月 14 日:人工智能生成合成内容标识办法(征求意见稿);Jina AI 发布 ReaderLM 和 Jina Embeddings V3。 9 月 18 日:DeepSeek 发文庆祝登上 LMSYS 榜单国产第一,几小时后 Qwen 新模型表示不服。 9 月 19 日:云栖大会;通义万相 AI 生视频上线;快手可灵 1.5 模型新增运动笔刷能力。 9 月 20 日:腾讯元器智能体对外发布;秘塔科技产品经理 JD 走红 AI 圈;阶跃跃问接入 Step2 万亿参数 MoE 语言大模型。 9 月 21 日:大模型测试基准研究组正式成立。 9 月 23 日:钉钉 365 会员上线。 9 月 24 日:讯飞星火 API 全新升级;豆包大模型全系列发布&更新。 9 月 25 日:Vidu API 正式开放,加速企业级视频创作;OpenAI 发布高级语音功能;西湖心辰开源 WestlakeOmni。 3. 2024 年,国内 AI 行业融资总金额增加,但事件数同比下降,马太效应越发明显,资本更青睐热点和高成熟度赛道。智能驾驶在各细分赛道中独占鳌头,AI+教育、AI+游戏、AI+医疗等赛道投资总额也有增长。政府积极推进 AI 原生行业发展,北京、上海、武汉等城市出台系列政策吸引人才和企业,国家队频繁投资体现政策支持。
2025-02-17
最新的AI行业动态和进展有哪些
以下是最新的 AI 行业动态和进展: 1. 《2024 年度 AI 十大趋势报告》发布,其中提到: 大模型创新方面,架构优化加速涌现,融合迭代大势所趋。 Scaling Law 泛化,推理能力成皇冠明珠,倒逼计算和数据变革。 AGI 探索中,视频生成点燃世界模型,空间智能统⼀虚拟和现实。 AI 应用格局方面,第一轮洗牌结束,聚焦 20 赛道 5 大场景。 AI 应用竞争中,多领域竞速运营大于技术,AI 助手兵家必争。 AI 应用增长方面,AI+X 赋能类产品大干快上,原生 AI 爆款难求。 AI 产品趋势为多模态上马,Agent 席卷一切,高度个性化呼之欲出。 AI 智变千行百业,左手变革生产力,右手重塑行业生态。 AI 行业渗透率方面,数据基础决定初速度,用户需求成为加速度。 AI 创投方面,投融资马太效应明显,国家队出手频率提升。 2. 2024 年 9 月的 AI 行业大事记: 9 月 12 日:李继刚再现神级 Prompt,玩法持续翻新;Mistral 发布首个多模态模型 Pixtral 12B。 9 月 13 日:商汤 Vimi 相机开放微博小程序;元象开源中国最大 MoE 大模型 XVERSEMoEA36B;OpenAI 发布 o1 模型。 9 月 14 日:人工智能生成合成内容标识办法(征求意见稿);Jina AI 发布 ReaderLM 和 Jina Embeddings V3。 9 月 18 日:DeepSeek 发文庆祝登上 LMSYS 榜单国产第一,几小时后 Qwen 新模型表示不服。 9 月 19 日:云栖大会;通义万相 AI 生视频上线;快手可灵 1.5 模型新增运动笔刷能力。 9 月 20 日:腾讯元器智能体对外发布;秘塔科技产品经理 JD 走红 AI 圈;阶跃跃问接入 Step2 万亿参数 MoE 语言大模型。 9 月 21 日:大模型测试基准研究组正式成立,国家队来了。 9 月 23 日:钉钉 365 会员上线。 9 月 24 日:讯飞星火 API 全新升级;豆包大模型全系列发布&更新。 9 月 25 日:Vidu API 正式开放,加速企业级视频创作;OpenAI 发布高级语音功能;西湖心辰开源 WestlakeOmni。 3. 从行业视角来看,2024 年国内 AI 行业融资总金额增加,但事件数同比下降,马太效应越发明显,资本更青睐热点和高成熟度赛道。智能驾驶在各细分赛道中独占鳌头,AI+教育、AI+游戏、AI+医疗等赛道投资总额也有增长。在政策方面,政府积极推进 AI 原生行业发展,北京、上海、武汉等城市出台系列政策吸引人才和企业,国家队频繁出手投资体现政策支持。
2025-02-17
配置最新的ai
以下是关于配置最新 AI 的相关内容: 1. Yaki:GPT/MJ 接入微信 检查环境 安装 Python 安装 git 克隆项目代码 安装 pip 环境 更改名称 配置文件:在 FinalShell 窗口下找到 root/chatgptonwechat/config.json 文件打开进行配置。 OpenAI API 的基础 URL(如果调用的不是官方的 key,需要更改这部分的内容):"open_ai_api_base":"https://api.gptapi.us/v1" 使用的模型版本(如果想要使用其他模型,记得需要更改这里):"model":"gpt4" 启动命令 注:扫码登录是模拟电脑登录微信号,需要保持在线才会触发,如果切换退出等,那么服务器中的微信也会掉线。 更详细内容参考:https://github.com/zhayujie/chatgptonwechat/tree/master 2. python 安装 FittenAI 编程助手 安装 python 的运行环境: 安装步骤:点击左上角的 FileSettingsPluginsMarketplace 注册:安装完成后左侧会出现 Fitten Code 插件图标,注册登录后即可开始使用 智能补全:按下 Tab 键接受所有补全建议;按下 Ctrl+→键接收单个词补全建议 AI 问答:通过点击左上角工具栏中的 Fitten Code–开始新对话打开对话窗口进行对话 自动生成代码:Fitten Code 工具栏中选择"Fitten Code生成代码",然后在输入框中输入指令即可生成代码 代码转换:Fitten Code 可以实现代码的语义级翻译,并支持多种编程语言之间的互译。选中需要进行翻译的代码段,右键选择"Fitten Code–编辑代码",然后在输入框中输入需求即可完成转换 3. 张梦飞:【知识库】FastGPT+OneAPI+COW 带有知识库的机器人完整教程 环境配置: 复制代码时注意复制全,每次只粘贴一行,然后点击一次回车。 回车后,只有最左边显示中括号时,才是上一个命令执行完毕。 1、第一步:cd/root||exit 1 2、第二步:下方两行粘贴进入,然后点击回车,等待下载完成。(如果有卡点,进行不下去,可能是服务器网络问题,去拉取时下载不全,可以复制网址,手动去下载到电脑上。然后进入文件夹,找到 root 文件夹,把下载的文件上传进去。) 2.2、再粘贴下方代码,出现下图,就代表在执行中了。 3、然后把下边这行粘贴进去,点击回车。rm f Anaconda32021.05Linuxx86_64.sh 4、继续粘贴:/root/anaconda/bin/conda create y name AI python=3.8 5、继续,一行一行依次粘贴,依次回车:echo 'source /root/anaconda/bin/activate AI' >> ~/.bashrc 6、执行完成后。刷新一下,重新进入终端,最左侧出现了(AI)的字符则配置完成。
2025-02-16
AI音乐最新资讯
以下是为您整理的 AI 音乐最新资讯: LAIVE: 这是一个利用 AI 技术一次性生成音乐、歌词、主唱等的创作平台。使用者可以选择喜欢的类型和情调,上传参考音源,AI 分析后生成音乐,还能选择主唱和修改歌词。目前为开放测试阶段。 输入促销代码“LAIVEcreator”(入口在个人资料)可获得 50 代币,令牌有效期为输入代码后的 30 天,促销码失效日期为 4 月 17 日。链接:https://www.laive.io/ Combobulator: DataMind Audio 推出的基于 AI 的效果插件,利用神经网络通过样式转移的过程重新合成输入音频,从而使用您自己的声音重现其他艺术家的风格。链接:https://datamindaudio.ai/ 新的文生音乐工具预告: Manglemoose 最近展示了由他们最新开发的音乐生成器制作的视频案例,该工具的名称尚未公布。Manglemoose 集结了五位音频技术专家,提供多种服务。详情可点击链接查看:https://www.manglemoose.com/en/ bGPT 字节级变换器: 论文:https://arxiv.org/abs/2402.19155 代码:https://github.com/sanderwood/bgpt 传统深度学习常忽略字节,bGPT 是具有下一个字节预测功能的模型,用于模拟数字世界,在模拟数字世界方面表现出色。 2.26 资讯: 作者:叮当不是机器猫,公众号:智音 Brook 20240226 16:00 广东 原文:https://mp.weixin.qq.com/s/MNqxjDvzMLZOZJoYDmCzEw FoleyGen:视觉引导音频生成 演示:https://xinhaomei.github.io/foleygen_demo/ 论文:https://arxiv.org/abs/2309.10537 具有不可微分规则引导扩散的符号音乐生成 FIGARO:通过精细的艺术控制生成象征性音乐 资源受限的立体声歌声消除 物理驱动的扩散模型来产生撞击声 世界上第一个自然语言音乐搜索引擎
2025-02-14
chatgpt5最新消息
以下是关于 ChatGPT 的最新消息: 有一位狂热的书友在 Reddit 的 ChatGPT 子区分享了借助 ChatGPT 在 5 分钟内阅读并理解任何书籍的方法,并给出了详细的 Prompt,包括“Please summarize ”。评论区的几百条回帖也是干货满满,书友们积极留言分享尝试用 ChatGPT 辅助阅读的经验。 评论区有人指出这种方式可能因 ChatGPT 的“幻觉”而得到错误信息,对于“幻觉”有处理经验的人提出在提问时注意三点:明确告诉它想要准确答案且无幻觉;改变 temperature 参数(如改到 0)或控制创造力水平;得到答案后,要求它为每个引用产生精确的引用和页面以便交叉检查。
2025-02-13