Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么让图片动起来

Answer

要让图片动起来,可以参考以下几种方法:

  1. 使用即梦进行图生视频:只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度可根据视频节奏选择,如选择慢速。
  2. 使用 Camera Motion:
    • 上传图片:点击“Add Image”上传图片。
    • 输入提示词:在“Prompt”中输入提示词。
    • 设置运镜方向:选择您想要的运镜方向,并输入相应的运镜值。
    • 设置运动幅度:运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。
    • 其它设置:选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。
    • 生成视频:点击“create”,生成视频。
  3. 对于复杂的图片,如多人多活动的图:
    • 图片分模块:把长图分成多个模块。
    • 抠出背景图:用智能抠图工具把要动的内容去除掉,用 AI 生成图片部分。
    • 绿幕处理前景图:将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。
    • 前景图动态生成视频:用 AI 视频生成工具(如即梦、海螺、混元等)写入提示词让图片动起来,不停尝试抽卡。
    • 生成视频去掉背景:用剪映把抽卡合格的视频放在去掉内容的背景图片上,通过视频的背景用色度抠图调整去掉背景。多个视频放在背景图片上,一起动即可。
Content generated by AI large model, please carefully verify (powered by aily)

References

桂大羊:保姆级教程 | AI视频短片的制作技巧_桂大羊-站酷ZCOOL

剧本中的两位主人公,共3个形象,分别是年轻船员:开朗积极、充满好奇;老船长:经验丰富、坚韧不拔,以及老船长年轻时候的形象。通过性格特征和时代背景,描绘人物的提示词、上传角色参考图--cref,最后将角色背景扣除以便于进行角色加背景的融合生成时进行垫图操作。以老船长年轻形象为例,生成了全身、半身、侧身多角度人物图。根据剧本创作,场景主要概括为三个场景部分,分别是海上、沙漠、市集。提示词从剧本中的画面描述进行提取。生成过程均采用文生图模式,画面风格选择前准备好的风格图进行垫图。上传角色图、场景背景进行参考生成,使得人物和场的融合度更高。通过以上阶段,我们的台词、剧本、风格、人物形象、画面场景就都确立好啦。小插曲:感谢团队小伙伴积极投入在本次创作中,分工明确,协同并进,最终产出一份较为满意的作品。当然最最最可爱且重要的是:留下关注、收藏、认知看完文章的你~现在画面静态图片有了,那么接下来该让图片动起来了吧......使用即梦进行图生视频,只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可。能生成时长为3秒钟的画面。运镜类型可根剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度根据我们的视频节奏,选择了慢速。生成效果:下方这类由图片+简单提示词生成出的3秒时长的短视频。

Camera Motion 使用教程

点击"AddImage"上传图片。[heading2]2.输入提示词[content]在“Prompt”中输入提示词。[heading2]3.设置运镜方向[content]选择您想要的运镜方向,输入[运镜值](https://waytoagi.feishu.cn/docx/Ci9yd5xu2o46rXxNofdcnqH9nXb#doxcniTMBNtWHj6MSpXvB2DTyUh)。(下图中所示为向右运镜)[heading2]4.设置运动幅度[content]运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。[heading2]5.其它[content]选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。[heading2]6.生成视频[content]点击“create”,生成视频。

AI视频创作教程:如何用AI让古画动起来

事情缘由:如果是简单的图,找原图直接写提示词即可。如果碰到多人多活动的图,直接出的效果会很不好,那么该怎么做呢?[heading2]图片分模块[content]首先,复杂部分的图,把长图分多个模块。比如这张图,我把它分成4个模块。[heading2]抠出背景图[content]第二步智能[抠图](https://so.csdn.net/so/search?q=%E6%8A%A0%E5%9B%BE&spm=1001.2101.3001.7020)。用豆包把要动的内容去除掉,用AI生成图片部分的。前后对比:真的好用。[水印](https://so.csdn.net/so/search?q=%E6%B0%B4%E5%8D%B0&spm=1001.2101.3001.7020)的话,可以把图片向下拓展一部分,然后截掉。[heading2]绿幕处理前景图[content]第三步将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。[heading2]前景图动态生成视频[content]第四步用AI视频生成工具写入提示词让图片动起来。这里AI工具生成有很多,即梦、海螺、混元都可以。不停尝试抽卡就行了。[heading2]生成视频去掉背景[content]第五步用剪映把抽卡合格的视频放在去掉内容的背景图片,视频的背景用色度抠图调整去掉。多个视频放在背景图片,一起动即可。然后在画面/色度抠图取背景绿色,切割完毕。拍电影搞绿幕的原因就是这里的妙用啦!最后得到视频啦。[heading2]成品[content]来看看成品。AI让古画焕发生机。取随园女弟子湖楼请业图局部

Others are asking
给我推荐一些ai工具 包括图片生成 视频生成
以下是为您推荐的一些 AI 图片生成和视频生成工具: Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 SVD:如果熟悉 Stable Diffusion ,可安装此最新插件,能在图片基础上直接生成视频,由 Stability AI 开源。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI ,能将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 Dreamina 即梦:网址:https://dreamina.jianying.com/aitool/home?subTab 不需要🪜,每天有免费额度,注册可用抖音号或手机号。 CognosysAI:自动化 AI agent 工作流,网址:https://www.cognosys.ai/ AI Tools:Creative Image Generators,AI Design,and Writing&Content GenerationUI Goodies:图像生成类工具,网址:https://uigoodies.com/aitools firefly.adobe.com:图像生成类工具。 Runwayml.com:视频生成类工具。 Hume AI:解读情绪的 AI 工具,网址:https://hume.ai/ BoredHumans.com:有趣的 AI 工具。 更多的文生视频的网站可以查看: 内容由 AI 大模型生成,请仔细甄别。
2025-03-18
给我推荐回答类ai 软件图片生成类ai软件 与视频生成类ai软件还是音频生成类ai软件
以下是为您推荐的回答类、图片生成类、视频生成类与音频生成类的 AI 软件: 回答类:目前没有明确列举的特定软件。 图片生成类: Stable Diffusion:通过加噪和去噪实现图像的正向扩散和反向还原,应用场景广泛,如带货商品图生成、模特服装展示、海报生成、装修设计等。 视频生成类: Sora(OpenAI):以扩散 Transformer 模型为核心,能够生成长达一分钟的高保真视频。支持文本生成视频、视频生成视频、图像生成视频,在文本理解方面表现出色,还能在单个生成的视频中创建多个镜头,保留角色和视觉风格。 Genie(Google):采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数,可通过单张图像提示生成交互式环境。 Pika:擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 音频生成类: WaveNet(DeepMind):一种生成模型,可以生成非常逼真的人类语音。 MuseNet(OpenAI):一种生成音乐的 AI 模型,可以在多种风格和乐器之间进行组合。 Multilingual v2(ElevenLabs):一种语音生成模型,支持 28 种语言的语音合成服务。 更多的文生视频的网站可以查看: 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-18
给我推荐回答类ai 图片生成类ai 与视频生成类ai还是音频生成类ai
以下是为您推荐的各类 AI 生成工具: 回答类 AI:目前有许多语言模型可用于回答问题,如 ChatGPT 等。 图片生成类 AI:Stable Diffusion 是一种生成模型,通过加噪和去噪实现图像的正向扩散和反向还原。 视频生成类 AI:AI 视频生成主要基于特定架构,如基于 Sara 的整体架构,采用 diffusion Transformer 架构,以扩散模型通过随机造点、加噪和去噪得到连续图像帧来生成视频。 音频生成类 AI:暂未在提供的内容中为您找到相关具体推荐。 同时,多模态大模型能识别页面组件结构和位置绝对值信息,并与组件、文本映射。吉梦 AI 提供 AI 视频生成等能力,吐司平台具备多种 AI 能力,包括模型、在线训练、上传模型工作流等功能,可通过输入提示词生成图片。Meta 的视频生成模型能生成视频和声音,可替换视频中的物体和人脸。
2025-03-18
用哪个大模型,在PDF和图片识别上精度高
在 PDF 和图片识别方面,对于图片,ChatGPT 依靠视觉模型解析,复杂图片建议使用最新模型(如 GPT4.5)。对于 PDF,ChatGPT 仅能识别文本,无法读取图表、图片,复杂布局可能导致误读。一些初步实验表明,一些开源的 PDF 解析方法可能无法达到高质量要求,而当辅以可以有效提取文档中的结构化信息并将其整合为提示词(Prompt)的 PDF 解析器时,大语言模型能够作出更准确的响应。
2025-03-18
如何生成图片
以下是几种生成图片的方法: 1. 通过 MJ 应用为 PPT 配图: 复制图片网址,打开 discord,在聊天栏输入“/imagine prompt”。 回到官网复制图像的提示词,粘贴到 discord 中网址后面并空格。 输入命令生成图像,若效果不理想可多反复生成几次。 放大觉得不错的图,可通过 Custom Zoom 改变比例和镜头拉远,如将“ar”参数后的数值改成 16:9,“zoom”参数设置为 1.5 到 1.7。 检查构图,若不理想可在当前图基础上再用一次 Zoom Out 1.5x。 2. 使用 PS Beta 版本的 Firefly Image 3 模型: 生成填充由 Adobe Firefly Image 3 模型提供支持,可提高摄影质量、精确控制输出、更好理解复杂描述和生成多样结果。 可使用参考图像生成变体,上传参考图像以指导创意工作流程并生成更相关和定制的变体,还可与描述性文本提示配对控制生成结果。 包括调整画笔、生成类似内容、生成背景、增强细节等功能。 3. 使用 LayerStyle 副本的 LayerUtility 中的 TextImage: 从文字生成图片以及遮罩,支持字间距、行间距调整,横排竖排调整,可设置文字的随机变化,包括大小和位置的随机变化。 节点选项包括 size_as、font_file、spacing、leading、horizontal_border、vertical_border、scale、variation_range、variation_seed、layout、width、height、text_color、background_color 等。
2025-03-18
手绘风格图片生成模型
以下是关于手绘风格图片生成模型的相关内容: 艺术字生成: 模型选择:图片 2.1,输入提示词(可参考案例提示词)。 案例参考提示词: 金色立体书法,“立冬”,字体上覆盖着积雪,雪山背景,冬季场景,冰雪覆盖,枯树点缀,柔和光影,梦幻意境,温暖与寒冷对比,静谧氛围,传统文化,唯美中国风。 巨大的春联,金色的书法字体,线条流畅,艺术美感,“万事如意”。 巨大的字体,书法字体,线条流畅,艺术美感,“书法”二字突出,沉稳,大气,背景是水墨画。 巨大的奶白色字体“柔软”,字体使用毛绒材质,立在厚厚的毛绒面料上,背景是蓝天。 原文链接:https://mp.weixin.qq.com/s/jTMFYKxsN8dYNZu3VHKBnA 【06】在线生图定制主题海报: 操作步骤: 选择模型:推荐使用的模型,如(例图 1)风格模型>中国风>水墨工笔;(例图 2)风格模型>儿童>童话绘本;(例图 3)风格模型>MJ>剪纸艺术;(例图 4)风格模型>儿童>皮克斯(模型选择过程如图所示)。 输入画面描述:更好地描述画面的方法包括使用本课件提供的自选关键词、按主体+氛围+视角+画质的顺序输入关键词、使用括号()强调关键词。 选择画面大小:无界 AI 已将尺寸与用途标注在选项中,制作主题海报可选择 9:16 的宣传海报比例,选择 17283072 的分辨率可以更快生成图片。 其他设置:增加作图数量可以在同样参数的控制下一次性生成多幅图片,方便挑选。 优化海报:使用可画(https://www.canva.cn/?displaycomoption=true)在线编辑海报。 0 基础手搓 AI 拍立得: 背景:每次使用大模型工具时流程繁琐冗长,出于简化操作、提升效率的需求,萌生了“AI 拍立得”的概念,即拍即得,简化流程,让操作更直观、更高效。之前的直播分享内容中也有提到关于 AI 拍立得的能力,往期回顾: 在线体验:快速体验 AI 拍立得,微信小程序搜索:Pailido,丰富场景自由切换,可快速生成闲鱼文案、生成外卖/大众点评。 交互逻辑:用户选择拍摄场景类型并立即拍照,AI 自动识别和分析照片中的内容信息,依据预设场景规则迅速生成符合情境的反馈,避免繁琐操作。 实现场景: 图片转成文本:逻辑为用户上传图片后,大模型根据选择的场景生成与内容相关的文字描述或解说文本,核心是图片理解和文本整理润色,场景包括生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:逻辑为用户上传图片后,大模型按照指定的风格快速生成图像的转绘版本,适应不同风格和场景需求,核心是图片风格化滤镜,场景包括图片粘土风、图片积木风、图片像素风等。
2025-03-18
我想把人物老照片转彩色并生成视频动起来,用什么工具
以下是一些可以将人物老照片转彩色并生成视频动起来的工具和方法: 1. 对于给老照片上色,可以使用 Stable Diffusion 及其相关插件,如 MutiDiffusion 插件。在显存不够的情况下,可利用分块渲染功能放大图片。还可以加入第二个 controlnet 来控制颜色,使用 t2ia_color 的模型,通过简单的关键词如“蓝天、绿树、灰石砖”来匹配色调。同时,将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。 2. 对于生成视频让图片动起来,可以使用即梦进行图生视频。只需上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,能生成时长为 3 秒钟的画面,运镜类型可根据剧本中的镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-22
生成3d模型可以让模型动起来吗?
生成 3D 模型后是可以让模型动起来的。例如,通过以下工具和流程可以实现: 工具链:Midjourney(生成等距图像)→Trellis(图像转 3D 模型)→Browser Lab(浏览器内 3D 编辑器)。 步骤: 使用 Midjourney 生成等距 3D 场景,提示词示例:3D isometric bedroom with a bed and desk。(DALLE 3 也可测试) 用 Trellis 工具将图像转为 3D 模型(支持 Tripo 3D 等其他工具)。工具地址: 下载生成的 3D 模型(GLB 文件或高斯分布文件),然后导入 Browser Lab 编辑器中进一步编辑。编辑器地址: 结合可灵 AI、Hailuo AI、Runway 等工具可让场景中的人物动起来。 对于文物雕塑上色,可使用 runway 让固有想法的物体变得动态,runway gen3 的 V2V 可以让物体重新建模、重新上色,再把背景上个色,传到剪映,加上 BGM。 先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)。 生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台。 再在下方输入提示词“3D modeling with vibrant colors”等待生成。 再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”。 最后导入剪映,按照自己喜欢的风格,剪成一个小短片。 另外,可以用即梦 S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成 9:16 或 16:9 的大小,否则 runway 会裁剪尺寸。
2025-02-20
如何让agent协作起来
要让 Agent 协作起来,可以参考以下方法: 1. 了解不同的产品设计模式:生成式 AI 的人机协同分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)这 3 种模式,每种模式下人与 AI 的协作流程有所差异。其中 Embedding 模式人类完成大多数工作,Copilot 模式人类和 AI 协同工作,Agents 模式 AI 完成大多数工作。 2. 采用 Multiagent Collaboration 的方法:让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如作为产品经理,可将产品功能设计需求通过 Agents 拆解成多个独立任务,遵循不同工作流,生成初步结果后再修改完善。 3. 从原子能力层思考:抽象化拆解大模型的底层能力,如翻译、识别、提取、格式化等,围绕“输入”“处理”“输出”“反馈”构建最底层的信息处理逻辑。 4. 重塑获取信息的方式:搜索引擎和基于大模型的聊天机器人的目标从根本上一致,可根据需求选择。 5. 注意多 Agent 模式中的设置:分为全局设置和节点设置。全局设置中更应注意角色定义和人物刻画,节点设置更关注单个智能体中要详细执行的逻辑。 6. 合理编排智能体:将智能体编排首尾相连,避免成为线性工作流。 7. 明确跳转模式和适用场景:单个 Agent 中两种跳转模式分别适用于通用和复杂的意图识别和跳转,一般场景下前者效果更好,后者适用更复杂的意图识别情景。同时,编排时应明确单个 Agent 的名称和适用场景,以便节点跳转模型更好地识别触发条件。
2025-02-19
如何让老照片动起来
以下是一些让老照片动起来的方法和相关信息: 1. 参加“时光印记”AI 公益挑战赛:该挑战赛采集了杨浦 20 位老一辈建设者老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s。报名及创作时间为即日起至 2024 年 11 月 20 日。参赛方式为填写报名问卷和进群获取素材。 2. 使用 Dreamina 即梦工具:不需要🪜,每天有免费额度。注册可用抖音号或手机号,上传照片即可尝试让老照片动起来。 3. 使用 Sora 工具:优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用。
2025-02-14
我想让公司做内容的同时用起来AI工具做好小红书和公众号的内容
以下是关于在公司做小红书和公众号内容时使用 AI 工具的相关信息: 1. 卓 sir 利用 AI 工具完成 PPT 作业的经验: 卓 sir 在时间紧迫的情况下,出于对 AI 提效的好奇,决定自己先用 AI 工具完成电子商务组队的 PPT 汇报作业。 探索写 prompt 花费了 3 个小时,但最终成功完成了包括大纲内容、排版、动画等的 PPT,认为加上企业背景图片即可提交。 用到的 AI 工具为 GPT4、WPS AI 和 chatPPT。 2. 12 月 25 日的 AI 资讯: Recraft AI 更新了 60 种新的图像风格,是一款可用于生成和编辑插画、海报、产品周边等的 AI 平面设计工具,对所有用户每日都有免费试用点数,并允许对生成的图像进行商业使用。地址:https://www.recraft.ai/ AI 公文智能体“学习强国公文助手”在文小言 APP 正式上线,可以帮助用户进行文汇检索、AI 公文书写、AI 公文润色等。使用方式:下载文小言 APP,找寻学习强国公文助手。 3. 关于生成式 AI 内容的思考: 汉青老师分享提到生成式 AI 的内容仍和传统社交媒体内容共存,短期内可能因新鲜感获流量红利,但人们最终在意的仍是高质量内容。 虽掌握了各种先进工具,但应更关注内容,认真感受真实世界和身边普通人。对于如何与 AI 结合还没想好,需慢慢思考。 希望以上信息对您在公司利用 AI 工具做小红书和公众号内容有所帮助。
2025-02-08
我在一周前的文章[1]里说对 DeepSeek-R1 只需要说大白话,但在三天前的文章[2]里又用了看起来还挺复杂的结构化提示词。有伙伴问我到底咋回事。这就来解释下喽。
以下是关于 DeepSeekR1 提示词的相关信息: 历史更新: 字节跳动推出新技术 OmniHuman,利用单张图片和音频生成生动视频。 DeepSeek 的出现标志着算力效率拐点显现,其优化算法架构提升算力利用效率,AI 基础大模型参数量迎来拐点,2025 年是算法变革元年,其训练过程聚焦强化学习提升推理能力。 提示词方法论: 核心原理认知:包括多模态理解、动态上下文、任务适应性等 AI 特性定位,以及采用意图识别+内容生成双通道处理等系统响应机制。 基础指令框架:包括四要素模板、格式控制语法等。 进阶控制技巧:如思维链引导、知识库调用、多模态输出。 高级调试策略:包括模糊指令优化、迭代优化法。 行业应用案例:涵盖技术开发场景、商业分析场景。 异常处理方案:如处理信息幻觉、格式偏离、深度不足等情况。 效能监测指标:包括首次响应准确率、多轮对话效率、复杂任务分解等。 在 R1 时代,使用 AI 提示词关键在于提供足够背景信息,简单大白话有效但信息量不足难达理想结果,示例和框架可助理清思路,最终影响在于思考和表达,利用乔哈里视窗分析信息需求,避免过度指令化,让 AI 自由思考以激发更高创意和效果。
2025-02-07