Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生视频

Answer

以下是关于图生视频的相关信息:

什么是图生视频: 输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。

图生视频的两个小技巧

  1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。
  2. 提示词要【简单清晰】:
    • 可以选择不写 prompt,直接让模型自己操控图片动起来。
    • 明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。

常见的图生视频模型及特点(从高到低排序)

  1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。
  2. luma 1.6:画面质量挺好,但是太贵了。
  3. 可灵 1.6 高品质:YYDS!
  4. 海螺-01-live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。
  5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。
  6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。
  7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!!
  8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。
  9. pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。
  10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。

PixVerse V2 使用教程

  1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。
  2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。
  3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:清影

输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。[heading3]👍两个小技巧[content]⚠️技巧1:选用尽可能清晰的图片,上传图片比例最好为3:2(横版),清影支持上传png和jpeg图像如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。⚠️技巧2:提示词要【简单清晰】1️⃣可以选择不写prompt,直接让模型自己操控图片动起来。2️⃣明确你想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现AI狂乱景象)如果你不明确大模型如何理解你的图片,推荐将照片发送到清言对话框进行识图,明确你的【主体】该如何描述。

图生视频

|排序(从高到低)|模型|特点(优缺)||-|-|-||1|pd 2.0 pro|即梦生成的画面有点颗粒感,p2.0模型还是很能打的,很适合做一些二次元动漫特效,。理解能力更强,更适合连续运镜,||2|luma 1.6|画面质量挺好,但是太贵了,真的太贵了。||3|可灵1.6高品质|YYDS!||4|海螺-01-live|文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了||5|runway|我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的||6|智谱2.0|做的一些画面特效听出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。||7|vidu1.5|二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧yyds!就是太贵了!!!!!。||8|seaweed 2.0 pro|s2.0适合动态相对小的,更适合环绕旋转运镜动作小的||9|pixverse v3高品质|pincerse的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。||10|sora|不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。|[p.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/WBMJb6ahLoHFezxlZHPcRfkynJc?allow_redirect=1)

PixVerse V2 使用教程

8s的视频生成需要花费30Credits,5s的视频生成需要花费15Credits,且只能使用PixVerse V2模型,生成时请注意模型选择。目前仅支持16:9画面比例的视频生成。[heading2]文生视频[content]点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。[heading2]图生视频[content]点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。

Others are asking
流程图生成
生成流程图主要有以下两种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形,代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式,只要解决语法抽象写起来麻烦的问题就行。使用 ChatGPT 生成图形语法的生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功,最后测试发现非常完美。 此外,Recraft 也能生成带有长文本图像的流程图解。在其开发过程中包含了很多不同的模型和工作,比如帮助处理数据的模型,由非专业设计师的标注人员和专业设计师参与的标注工作,训练 OCR 模型,新构建的数据集等等。但创建自己的模型存在困难,既需要超强的团队,组建这样的团队很难,而且训练自己的模型也很贵。
2025-03-13
我想知道现在中国网络环境内可以用的最好图片AI,以图生图稳定
目前在中国网络环境内可用的较好的以图生图且较为稳定的 AI 产品有: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格可选,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,关于 Stable Diffusion 还有一些相关的使用技巧和处理步骤: 用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,该放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,如设置 X 轴为提示词相关性,Y 轴为重绘幅度等。绘图时可通过增加提示词、使用画笔工具等进行局部修改和重绘。
2025-03-12
图生文怎么制作
以下是关于图生文制作的详细步骤: 一、Tusiart 简易上手教程 1. 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看帖子中使用的 lora。 4. ControlNet:用于控制图片中的特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和长句。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可留意 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 后,采样次数在 30 40 之间,过多意义不大且慢,过少出图效果差。 11. 尺寸:根据个人喜好和需求选择。 二、Liblibai 简易上手教程 1. 定主题:确定要生成的图片的主题、风格和表达信息。 2. 选择 Checkpoint:依照主题找贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 来控制图片效果和质量,参考广场上的优秀帖子。 4. 设置 VAE:无脑选 840000 那一串。 5. CLIP 跳过层:设成 2 。 6. Prompt 提示词:用英文写想要 AI 生成的内容,单词和短语组合,用英文半角逗号隔开,不管语法和长句。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开,不管语法。 8. 采样方法:一般选 DPM++2M Karras 较多,留意 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 后,在 30 40 之间,过多意义不大且慢,过少出图效果差。 10. 尺寸:根据个人喜好和需求选择。 11. 生成批次:默认 1 批。 三、SD 新手入门图文教程 1. CFG Scale(提示词相关性):决定图像与提示的匹配程度,增加该值会使图像更接近提示,但可能降低图像质量,可用更多采样步骤抵消,一般开到 7 11 ,过高会有粗犷线条和过锐化图像。 2. 生成批次:每次生成图像的组数,一次运行生成图像的数量为“批次×批次数量”。 3. 每批数量:同时生成的图像个数,增加会提高性能但需更多显存,若显存未超 12G ,保持为 1 。 4. 尺寸:指定图像长宽,出图尺寸太宽可能出现多个主体,1024 以上尺寸可能效果不理想,推荐小尺寸分辨率+高清修复(Hires fix) 。 5. 种子:决定模型生成图片时的随机性,初始化 Diffusion 算法起点的初始值,相同参数下应生成相同图片。 6. 高清修复:通过勾选“Highres.fix”启用,默认高分辨率下会生成混沌图像,使用后先按指定尺寸生成再放大,实现高清大图效果,最终尺寸为(原分辨率×缩放系数 Upscale by) 。
2025-03-11
我想大规模进行文生图,然后图生视频,用什么方案比较好
以下是一些大规模进行文生图然后图生视频的方案: 1. 可以选择大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图使用 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。同时,视频中的小部分音效可在网上无版权下载,剪映中也有大量音效可用。 2. 对于视频的大部分片段,可以用 runway(https://app.runwayml.com/)制作,少数片段用即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。登录 runway 账户后,在首页左侧点击“Text/Imagine to Video”,上传图片,更改模型版本、输入提示词、修改生成的视频时长等。 3. 以下是一些图生视频模型的特点(从高到低排序): pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型理解能力更强,更适合连续运镜,适合做一些二次元动漫特效。 luma 1.6:画面质量挺好,但价格昂贵。 可灵 1.6 高品质:表现出色。 海螺01live:文生视频比图生视频更有创意,图生也还可以,但大幅度动作下手部会出现模糊,整体素质不错,价格较贵。 runway:画面质量不算差,适合做一些超现实主义的特效、特殊镜头。 智谱 2.0:画面特效出众,价格便宜,量大,但整体镜头素质稍差。 vidu1.5:适合二维平面动画特效,大范围运镜首尾帧出色,但价格贵。 seaweed 2.0 pro:适合动态相对小、环绕旋转运镜动作小的情况。 pixverse v3 高品质:首尾帧表现好,画面美学风格有待提升。 sora:不好用,文生视频较强,但图生视频抽象镜头多,不建议使用。
2025-03-06
图生图
图生图是一种在 AI 绘画领域常见的功能: 概念与功能:上传图片后,AI 会根据图片、选择的模型、输入的 prompt 等信息进行重绘。重绘幅度越大,输出的图与输入的图差别越大。 相关参数: 尺寸:影响生成图片的大小,太小或太大都可能影响生成效果,如需高清图,可设置中等尺寸并用高分辨率修复。 采样算法:决定让 AI 用何种算法生图。 采样次数:AI 调整图片内容的次数,越多调整越精密,理论上出图效果更好,但耗时越长,且效果提升并非线性。 提示词相关性:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 随机种子 seed:每张生成的图都有随机种子,固定种子后可进行“控制变量”操作,首次生成图时无种子。 Clip Skip:一般设为 2,早期无需过多关注。 ENSD:eta 噪声种子增量,默认设为 0。 使用方法: 在星流一站式 AI 设计工具中,prompt 输入框下点击“图生图”可上传本地文件,在无限画布中图片功能区也可进行选择。调整“图生图”功能区参数时,参考程度可选择更像原图(小幅度修改基底图像,有限增加元素)、更创意(大幅度修改基底图像,可搭配增强模型加入更多元素)、自定义(自定义修改重绘幅度),还可增加参考纬度、替换图像、转换提示词、同步生图尺寸。 在 FLUX 之 PULID 换脸中,如果没办法科学上网,可注册 bizyair 拿到 key,在 comfyui 中安装最新节点,没有独立显卡的笔记本也可体验。目前 FLUXPULID 只有文生图,图生图可准备两张图,用 joy 反推,将文字贴到 pulid 工作流里,也可合在一个工作流里。
2025-03-05
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
免费的文生视频的软件
以下是一些免费的文生视频软件: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion ,可安装此插件,在图片基础上生成视频,由 Stability AI 开源。 3. Haiper:有免费额度,能生成 HD 超高清的视频,文生视频支持选择风格、秒数、种子值等。 4. DynamiCrafter:免费,可生成 2 秒图生视频,还能做短视频拼长视频。 此外,还有通义万相,可免费使用,地址为:https://tongyi.aliyun.com/wanxiang/wanxvideo 。它全新发布自研 AI 视频生成大模型,具备多种优势。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。 内容由 AI 大模型生成,请仔细甄别。
2025-03-13
批量视频转文字
以下是关于批量视频转文字的相关信息: 通义听悟是阿里云推出的一款基于大模型的工作学习 AI 助手,能对音视频内容进行转写、检索、摘要和整理等。它可以实时记录交流内容并同步翻译,批量转写音视频文件并区分发言人,智能提炼全文概要、章节速览和发言总结,提取视频中的 PPT 并总结摘要,自动提取关键词和待办事项,编辑整理笔记并导出分享。通义听悟于 2023 年 6 月 1 日开始公测,并在 2023 年 11 月的云栖大会上正式上线。 舆情管理大师汽车 bot 小队具有视频直转文字的功能,能简化人工筛选过程,提炼关键内容用于复审。 在视频转绘制作视频过程中,对于批量跑图脚本设置,当对关键帧的图片试验完毕得到满意画面时,可来到图生图界面点击最下面的脚本按钮,选择 Ebsynth Utility 脚本。需填写对应的工程文件路径,注意 Mask option 选项控制是否使用蒙版。ControlNet 配置一般保持默认参数,还可配置脸部裁切,包括面部裁切选择、面部裁切分辨率、最大裁切尺寸、人脸去噪程度、面部放大倍数等参数,开启后可改善面部崩坏情况。设置完成点击生成按钮,最后会在工程文件夹中生成一个 img2img_key 的文件夹。
2025-03-13
AI 去视频字幕
以下是关于 AI 去视频字幕的相关信息: VSR 字幕去除工具:利用 AI 去除视频和图片中的字幕,支持智能填充处理,确保视觉质量。链接: 对于有字幕的 B 站视频,若视频栏下有字幕按钮,说明视频作者已上传字幕或后台适配了 AI 字幕。可安装油猴脚本,安装后刷新浏览器,点击字幕会多出“下载”按钮,可选择多种字幕格式,然后将字幕文字内容全选复制发送给 GPTs 进行总结。 【TecCreative】的创意工具箱中有智能识别视频语言并生成对应字幕的功能,满足海外多国投放场景需求。操作指引:点击上传视频——开始生成——字幕解析完成——下载 SRT 字幕。注意:支持 MP4 文件类型,大小上限为 50M。
2025-03-13
AI如何学习,请给我具体的学习路线、视频和书籍
以下是为您提供的 AI 学习路线、视频和书籍的相关内容: 学习路线: 1. 了解 AI 基本概念:阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 2. 开始 AI 学习之旅:在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习。 3. 选择感兴趣的模块深入学习:AI 领域广泛,比如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习,同时掌握提示词的技巧。 4. 实践和尝试:理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 视频: 1. 大量阅读。 书籍: 1. 推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译。 2. 关于介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。
2025-03-13
AI生成视频
以下是关于 AI 生成视频的相关内容: Adobe 网站的生成视频相关操作: 在 Advanced 部分,您可以使用 Seed 选项添加种子编号,以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。选择 Generate 进行生成。 将小说制作成视频的流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 AI 视频生成的技术发展概况和应用场景思考: 长期以来,人们对 AI 视频技术应用的认知停留在各种“换脸”和视频特效上。随着 AI 图像领域的技术发展,AI 视频技术逐渐取得突破。从交互方式来看,当前 AI 视频生成主要可分为文本生成视频、图片生成视频、视频生成视频三种形式。一些视频生成方法是先生成静态关键帧图像,然后构建为视频序列。也存在直接端到端生成视频的技术,无需进行多阶段处理即可生成视频,如基于 GAN、VAE、Transformer 的方法。例如微软 NUWAXL 是通过逐步生成视频关键帧,形成视频的“粗略”故事情节,然后通过局部扩散模型(Local Diffusion)递归地填充附近帧之间的内容。
2025-03-13
可灵视频提示词怎么写
以下是关于可灵视频提示词的写法: 1. 上传基础视频: 点击页面下方的【Pikaddition】按钮。 拖拽或点击上传本地视频。 若自己没有视频,可在“templates”板块使用官方示例视频做测试。 2. 添加主角图片:点击【Upload Image】上传角色图片文件。 3. 编写视频提示词: 若需要参考角色在视频里的相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。 Pika 会提供一段默认 prompt,若无特殊想法,可直接使用。 建议在自己的提示词尾部加入官方提供的默认提示词,效果会更好。 提示词公式参考: 事件驱动句式:As... 空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the... 动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching... 核心逻辑:Pikadditions 的核心功能是用户上传实拍视频和角色图片,AI 将角色动态融入视频中。因此,提示词需要具体描述角色在视频中的动作、互动和场景匹配。 此外,对于 Adobe Firefly 的提示词技巧: 明确且具体描述,尽量使用更多词汇来具体描述光线、摄影、色彩、氛围和美学风格。 提示词公式:镜头类型描述+角色+动作+地点+美学风格。 镜头类型描述:相机的视角是什么?它是如何移动的?示例:“一个特写镜头,缓慢推近。” 角色描述:角色是谁?他们长什么样子?他们穿着什么?他们的情绪如何?示例:“一只体型庞大的北极熊,拥有明亮的白色毛皮,看起来若有所思。” 动作:角色在场景中做什么?示例:“北极熊正轻柔而自信地走向它之前在冰面上打开的一个洞,准备在冰面下捕猎。” 地点:角色在哪里?天气如何?地形是怎样的?示例:“地点是一片荒凉的雪地;远处灰蒙蒙的云朵缓慢移动。” 美学风格:这是什么类型的镜头?氛围是怎样的?景深如何?示例:“电影感、35mm 胶片、细节丰富、浅景深、散景效果。” 构建提示词时,建议限制主题数量,过多的主题(超过四个)可能会让 Firefly 感到困惑。
2025-03-12