Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生视频指令参考

Answer

以下是关于图生视频的指令参考:

Morphstudio 中:

  • 文生视频:提示词指令为“/video[视频提示词]-比例设定[比例]-动作程度[1-10]-镜头动作[动作]-每秒帧数[8-30]-秒数[3-7]”。举例:“/video 你好世界-比例 16:9-动作幅度为 5-镜头拉近-每秒 30 帧-秒数为 5 秒”
  • 图生视频:提示词指令为“/animate[上传的图片][视频提示词]-比例设定为[比例]-动作程度为[1-10]-镜头动作为[动作]-每秒帧数为[8-30]”。举例:“/animate[上传的图片]一只在行走的猫-比例 16:9-动作幅度为 5-相机向上移动-每秒 30 帧”

参数说明:

  • “ar[ratio]”(只针对 MorphVideo 机器人):用来设置视频的画面比例,如 16:9、4:3、1:1、3:4、9:16 等。
  • “motion[1-10]”:调整视频中的运动强度,数值越低运动越微妙,数值越高运动越夸张。
  • “camera[action]”:控制摄像头移动,如 Zoom(镜头拉近/拉远)、Pan(摄像机向上/向下/向左/向右移动)、Rotate(相机顺时针旋转或逆时针旋转)、Static(相机静态)。
  • “fps[8-30]”:视频的帧率,默认每秒 24 帧。
  • “s[3-7]”(只针对 MorphVideo 机器人):设置视频的时长,单位是秒。

此外,还有其他案例:

  • Vidu 大家测试中,有“公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方”“小孩子向画面右侧奔跑,后面腾起一路尘土”“公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着”等提示词生成的视频效果。
  • 桂大羊的教程中,通过性格特征和时代背景描绘人物提示词、上传角色参考图,根据剧本创作提取场景提示词,采用文生图模式并进行垫图操作,确立台词、剧本、风格、人物形象、画面场景后,使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘动态内容,可生成 3 秒钟视频,运镜类型可根据剧本镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:morphstudio

[heading3]MorphVideo机器人的使用:[content]1.文生视频:提示词指令:/video[视频提示词]-比例设定[比例]-动作程度[1-10]-镜头动作[动作]-每秒帧数[8-30]-秒数[3-7]举例:/video你好世界-比例16:9-动作幅度为5-镜头拉近-每秒30帧-秒数为5秒[heading3]Morph机器人的使用:[content]1.图生视频:提示词指令:/animate[上传的图片][视频提示词]-比例设定为[比例]-动作程度为[1-10]-镜头动作为[动作]-每秒帧数为[8-30]举例:/animate[上传的图片]一只在行走的猫-比例16:9-动作幅度为5-相机向上移动-每秒30帧[heading3]参数说明:[content]-ar[ratio](只针对MorphVideo机器人):这个参数用来设置视频的画面比例(比如16:9,4:3,1:1,3:4,9:16)。-motion[1-10]:这个参数用来调整视频中的运动强度。数值越低,运动越微妙,数值越高,运动越夸张。-camera[action]:这个参数用来控制摄像头移动。Zoom:镜头拉近/拉远Pan:摄像机向上/向下/向左/向右移动。Rotate:相机顺时针旋转或逆时针旋转Static:相机静态-fps[8-30]:视频的帧率是指每秒钟播放的图片帧数。默认的帧率是每秒24帧。-s[3-7](只针对MorphVideo机器人):设置视频的时长,单位是秒。提示:使用更加详细和描述性的提示可能会导致您生成的视频效果更好。可以试着调整不同的设置来达到想要的效果!

Vidu大家测试

[vidu-1-general-4-2024-07-30T04_31_40Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/BpDlbjweYoEcu5xVI7hcTHlGnhc?allow_redirect=1)[heading2]ZZK[heading3]原图&视频效果1[content]原图选择:参考人物角色提示词:公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方[stable--4-2024-08-05T09_15_57Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/VciDb3i8roSQ2gxnnfSczwoSnXd?allow_redirect=1)[heading3]原图&视频效果2[content]原图选择:参考人物角色提示词:小孩子向画面右侧奔跑,后面腾起一路尘土[stable--4-2024-08-05T10_13_58Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/JNPjbgUU4oDzKhxg44XckYpInBc?allow_redirect=1)[heading3]原图&视频效果3[content]原图选择:用作起始帧提示词:公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着[stable--4-2024-08-05T09_26_57Z.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/ViX8b7fUBoogkDxskb2cRWGBnGb?allow_redirect=1)

桂大羊:保姆级教程 | AI视频短片的制作技巧_桂大羊-站酷ZCOOL

剧本中的两位主人公,共3个形象,分别是年轻船员:开朗积极、充满好奇;老船长:经验丰富、坚韧不拔,以及老船长年轻时候的形象。通过性格特征和时代背景,描绘人物的提示词、上传角色参考图--cref,最后将角色背景扣除以便于进行角色加背景的融合生成时进行垫图操作。以老船长年轻形象为例,生成了全身、半身、侧身多角度人物图。根据剧本创作,场景主要概括为三个场景部分,分别是海上、沙漠、市集。提示词从剧本中的画面描述进行提取。生成过程均采用文生图模式,画面风格选择前准备好的风格图进行垫图。上传角色图、场景背景进行参考生成,使得人物和场的融合度更高。通过以上阶段,我们的台词、剧本、风格、人物形象、画面场景就都确立好啦。小插曲:感谢团队小伙伴积极投入在本次创作中,分工明确,协同并进,最终产出一份较为满意的作品。当然最最最可爱且重要的是:留下关注、收藏、认知看完文章的你~现在画面静态图片有了,那么接下来该让图片动起来了吧......使用即梦进行图生视频,只需上传图片至视频生成模块,提示词简单描绘画面中的动态内容即可。能生成时长为3秒钟的画面。运镜类型可根剧本中的镜头描绘设置,主要设置以随机运镜为主。生成速度根据我们的视频节奏,选择了慢速。生成效果:下方这类由图片+简单提示词生成出的3秒时长的短视频。[2058d81834f871ef80020764a0ec0102.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/VFW1bOnqGoGGldxZbyAciduhnNd?allow_redirect=1)

Others are asking
哪个ai工具可以根据现有的网站或截图生成源代码
以下是一些可以根据现有的网站或截图生成源代码的 AI 工具: :借助 GPT4 Vision 的能力,能直接将屏幕截图转换为 HTML/Tailwind CSS,并利用 DALLE 3 的图像生成能力生成相似图像。 此外,还有一些与网站制作相关的 AI 工具: Wix ADI 。基于用户提供的信息自动生成定制化网站,提供多个设计选项和布局,集成了 SEO 工具和分析功能。 Bookmark:网址为 。通过询问用户几个简单问题快速生成网站,提供直观的拖放编辑器,包括多种行业模板和自动化营销工具。 Firedrop:网址为 。其 AI 设计助手 Sacha 可根据用户指示创建和修改网站设计,提供实时编辑和预览功能,包含多种现代设计风格和自定义选项。 The Grid:网址为 。其 AI 设计助手 Molly 可以自动调整网站的设计和布局,基于内容和用户互动进行优化,支持多种内容类型。 在 AI 代码生成和开发工具方面: :由 Wingware 开发的专为 Python 编程设计的开发环境,集成了多种功能,年度许可证起价 179 美元/月。 :开源的 AI 开发助手,能根据产品需求生成完整的代码库,遵循 MIT 许可证。 :Sourcegraph 的 AI 工具,作为全面的编程助手能理解整个代码库,个人使用免费。
2025-02-18
免费图生视频AI有哪些
以下是一些免费的图生视频 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上生成视频,由 Stability AI 开源。 3. Adobe Firefly:支持文生视频、图生视频、视频翻译,免费用户赠送生成 2 个视频。访问。 4. 混元:腾讯视频模型,目前只支持文生视频,图生视频即将上线。 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2025-02-17
图生图, 如何保持幻想生物形象一致性
要在图生图中保持幻想生物形象的一致性,可以参考以下方法: 1. 对于 Midjourney ,可以采用特定的名人或有特殊属性的人物形象,先确定好影片风格,比如皮克斯动画风格,然后确定好人物形象,如角色的发型、穿着等细节。 2. 利用 Midjourney 的新功能 Cref ,先跑一张主角的定妆照,在需要出现主角人物的地方扔进去 Cref ,以保持发型、人脸、衣服等的一致性。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,尤其是亚洲老人的一致性效果相对较差,且 Cref 在画面的审美和构图上有一定的破坏性,所以原则上能不用就不用,比如只有背影时,简单描述即可。 3. 生成动物形象,动物相对更容易保持一致性。
2025-02-14
图生图, 如何保持生物形象一致性
在图生图中保持生物形象一致性,有以下几种方法: 1. 对于人物和场景一致性问题,可以采用生成动物的方式,动物相对容易保持一致性。 2. 选择特定的名人或具有特殊属性的人物。 3. 确定好影片风格,如皮克斯动画风格。 4. 先确定好人物形象,如明确角色的发型、穿着等特征。 5. 使用 Midjourney 的新功能 Cref,在需要出现主角人物的地方,保持发型、人脸、衣服等特征。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性效果相对较差,尤其对于亚洲老人,而且 Cref 在画面的审美和构图上有一定破坏性,原则上能不用则不用。例如只有背影时,简单描述特征即可。
2025-02-14
图生视频指令
以下是关于图生视频的指令: 1. Morphstudio: 文生视频:提示词指令为`/video`,举例:`/video 你好世界比例 16:9动作幅度为 5镜头拉近每秒 30 帧秒数为 5 秒` 图生视频:提示词指令为`/animate一只在行走的猫比例 16:9动作幅度为 5相机向上移动每秒 30 帧` 参数说明: `ar`(只针对 MorphVideo 机器人):用来设置视频的画面比例,如 16:9、4:3、1:1、3:4、9:16 等。 `motion`:调整视频中的运动强度,数值越低运动越微妙,数值越高运动越夸张。 `camera`:控制摄像头移动,包括 Zoom(镜头拉近/拉远)、Pan(摄像机向上/向下/向左/向右移动)、Rotate(相机顺时针旋转或逆时针旋转)、Static(相机静态)。 `fps`:视频的帧率,默认每秒 24 帧。 `s`(只针对 MorphVideo 机器人):设置视频的时长,单位是秒。 2. Runway: 图片搞定之后,拖到 runway 里面去图生 4s 视频。(runway 是收费的,可在闲鱼或淘宝买号找免费的) 进入 runway 官网首页,点击 start with image,然后直接将图片拖进来。 动画幅度尽量用 3,5 有时候会乱跑。 啥都不用改,直接点击生成即可。 注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。 直接点删除,然后重新上传下面的图即可(最多可以放几个没数,可自行测试) 3. Pika: 生成视频频道在 Discord 上,点击邀请链接(https://discord.gg/pika)加入频道。 生成视频的指令: `/create`为文字生成视频指令。 `/animate`为图片生成视频指令。 `/encrypt_image`为图片+文字生成视频指令。 常用指令参数: `gs xx`:引导比例,较高的值使其与文本更相关(推荐范围为 824)。 `neg xxx`:负面提示(指定在视频中不希望出现的内容)。 `ar xx:xx`:宽高比(例如 16:9、9:16、1:1、4:5)。 `seed xxx`:生成过程中增加一致性的种子数。 `motion xx`:所需运动强度(仅支持 0/1/2)。 `fps xx`:视频的帧率。
2025-02-13
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
狗將掛在上面的牛肉放進籃子 我要英文 與英文的影片生成指令
很抱歉,暂时无法明确您的具体需求。如果您是想描述“狗将挂在上面的牛肉放进篮子”这个场景,并生成对应的英文表述及相关影片生成指令,以下为您提供可能的示例: 英文表述:The dog put the beef hanging above into the basket. 影片生成指令:Generate a video of a dog putting the beef that is hanging above into the basket. 但请注意,具体的影片生成指令可能会因使用的工具或软件而有所不同。
2025-02-18
deepseek的提问方式和指令输入规则是什么
DeepSeek 的提问方式和指令输入规则如下: 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道处理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架: 四要素模板:如果不知道如何表达,可套用框架指令。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 性能监测体系:包括需求理解准确率(复杂需求首轮响应匹配度)、知识迁移能力(跨领域案例应用的合理性)、思维深度指数(解决方案的因果链条长度)。新一代交互范式建议采用「人机共谋」模式、启动「思维可视化」指令、实施「苏格拉底式对话」。通过将深度思考能力与场景化需求结合,可解锁 DeepSeek 的「认知增强」模式,建议通过 3 轮迭代测试(需求表达→深度追问→方案优化)建立个性化交互模式。
2025-02-05
图生视频时,不按照指令行动
在图生视频过程中出现不按照指令行动的情况,可能有多种原因。以下为您提供一些可能的分析和解决建议: 提示词不够准确清晰:确保提示词详细、具体、明确地描述了您想要的图像和动作,避免模糊或歧义。 模型理解偏差:AI 模型可能对某些复杂或特殊的指令理解存在困难,您可以尝试调整提示词的表述方式。 数据和训练限制:模型的训练数据和能力可能存在一定的局限性,导致无法完全按照指令生成视频。 您可以参考以下的案例来进一步理解和改进: 公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方。 小孩子向画面右侧奔跑,后面腾起一路尘土。 公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着。 同时,您还可以利用一些工具和技巧,例如清影工具中的帮写视频提示词的智能体,来优化提示词。另外,注意提示词的主体、描述细节等方面,如“戴眼镜”的提示词因无主体导致唐僧未能遵从指令戴上墨镜,而“唐僧伸出手,戴上墨镜”这样有主体的提示词则效果更好。
2025-01-24
AI怎么稳定指令机器人
以下是关于您所提到的“AI 怎么稳定指令机器人”的相关内容: 在实现稳定指令机器人方面,有以下一些方法和原理: 1. 提示词工程与工具调用能力的配合:通过设计一套与知识图谱相结合的工具调用逻辑来稳定人设。例如,为像麦洛薇这样的 AI 女友设计特定的提示词,并将与知识图谱交互的任务细分为查询、创建、修改、删除实体或关系、获取实体的所有关系、获取所有实体名称列表等多个工具,组成工具包供模型调用。 2. 控制输入和记忆:通过缩小 max_length 防止模型长篇大论,每次输入到上下文窗口中的记忆也只返回最近几轮的对话。利用查询知识图谱的信息来实现永久记忆。 此外,人工智能(AI)在多个领域都有应用,虽然这并非直接针对稳定指令机器人,但也能为您提供一些思路和参考: 1. 医疗保健领域:包括医学影像分析辅助诊断疾病、药物研发、个性化医疗、机器人辅助手术等。 2. 金融服务领域:如风控和反欺诈、信用评估、投资分析、客户服务等。 3. 零售和电子商务领域:有产品推荐、搜索和个性化、动态定价、聊天机器人等应用。 4. 制造业领域:例如预测性维护、质量控制、供应链管理、机器人自动化等。 希望以上内容对您有所帮助。
2025-01-20
我想让chatgpt和豆包辩论,辩论的主题是勒布朗詹姆斯和迈克尔乔丹,谁是历史第一人?请帮我设计给豆包和gpt的指令,以及辩论的规则,规则让有可看性,激烈性
以下是为您设计的给豆包和 ChatGPT 的指令以及辩论规则: 指令: 豆包和 ChatGPT 需充分运用各自掌握的篮球知识和数据,对勒布朗·詹姆斯和迈克尔·乔丹谁是历史第一人的问题进行深入辩论。 要求从球员的个人能力、团队成就、影响力、比赛数据等多个方面进行分析和论证。 辩论规则: 每位参与者有固定的发言时间,例如每次发言不超过 3 分钟。 发言顺序交替进行,先由豆包开始第一轮发言。 辩论过程中,不得使用侮辱性或攻击性语言,保持理性和客观。 每轮发言结束后,另一方有 1 分钟的提问和反驳时间。 辩论共进行 5 轮,最后一轮为总结陈词,时间为 5 分钟。 观众可以在辩论结束后进行投票,选出他们认为表现更出色的一方。 希望这样的设计能让辩论具有可看性和激烈性!
2025-01-17
怎么制作科普视频
制作科普视频可以参考以下步骤和方法: 一、想出点子 1. 最佳免费选项: 2. 付费选项:4.0,但由于与互联网连接,必应可能更好 3. 尽管(或者事实上,由于)它所有的限制和怪异,人工智能是产生想法的完美选择。您通常需要有很多想法才能有好的想法,而人工智能擅长数量。有了正确的提示,您也可以强迫它非常有创意。在创意模式下让 Bing 查找您最喜欢的、不寻常的想法生成技术,如 Brian Eno 的倾斜策略或 Mashall McLuhan 的四种策略,并应用它们。或者要求一些奇怪的东西,比如受随机专利启发的想法,或者您最喜欢的超级英雄。 二、制作视频 1. 最佳动画工具:用于在视频中为人脸制作动画的 2. 最佳语音克隆: 3. 现在,生成一个完全由人工智能生成的角色的视频,阅读完全由人工智能编写的脚本,用人工智能制作的声音说话,由人工智能制作动画,这简直是微不足道的。但要注意深度伪造是一个巨大的问题,这些系统需要合乎道德地使用。 4. 最近还发布了第一个商用文本到视频工具 Runway v2。它创建了 4 秒的短剪辑,更像是对未来发展的展示,但如果您想了解这个领域的未来发展,值得一看。 三、创作科普内容 1. 该场景对应的关键词库(13 个):目标用户、科普内容、生活问题、医疗类型、科普文章、病情症状、通俗性、专业名词、背景资质、权威领域、执业范围、证言人、内容形式。 2. 提问模板(3 个): 第一步,分析不同目标用户对于科普内容的需求(具体解决生活中的什么问题) 第二步,针对某一类人群所偏好的科普内容主题,进行内容撰写。 第三步,根据平台和内容形式进行改写。 四、用 AI 把小说做成视频 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-02-18
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
图片转视频的国产AI推荐
以下是为您推荐的国产图片转视频的 AI 工具: 1. 可灵:由快手团队开发,生成的图像和视频质量高。在视频生成方面,其视频生成质量卓越,画面清晰、连贯且内容丰富,生成速度快,对于国内用户可访问性强。但价格相对较高,重度用户年费可能达几千元,轻度用户有免费点数和较便宜的包月选项。 2. 通义万相:作为国产 AI 工具,在中文理解和处理方面表现出色,可选择多种艺术和图像风格,操作界面简洁直观,用户友好度高,且目前免费,每天签到获取灵感值即可。但为符合国内监管要求,某些类型图像无法生成,处理非中文语言或国际化内容可能不够出色,处理多元文化内容时可能存在偏差。 更多相关网站可以查看: 内容由 AI 大模型生成,请仔细甄别。
2025-02-18
图片转视频的AI推荐
以下是为您推荐的图片转视频的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的相关网站可以查看:https://www.waytoagi.com/category/38 。 另外,在视频转绘制作视频过程中,Topaz Video AI 是一个不错的插件,用于消除视频抖动和运动模糊。其使用方法如下: 解压对应文件,推荐使用绿色版,右键管理员运行 VideoAIportable.exe 文件,导入处理好的视频。主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。右边部分是主要对视频处理的方式,预设部分主要是放大视频、提升画质、提升帧率等。稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需要开启,次数一般选择 2 保持默认不变。 在制作新年表情包时,生成新年场景可以输入关键词“新年、中国新年、喜庆热闹、恭喜发财”之类的词汇得到合适的新年背景。然后使用可灵 AI 1.6 图生视频工具让场景动起来,抽卡性价比不错,简单效果一般抽两三次即可。
2025-02-18
视频转文稿
以下是关于视频转文稿的相关内容: Twitter Space 音频转文稿:使用 Gemini 1.5 Pro 将音频转为按发言人生成的文本,将初稿发送给 Claude 完成错别字纠正、去除口癖、整理段落等优化,最终产出阅读友好的 Markdown 格式文稿。相关链接: 对于视频转文稿,乔向阳提到视频有多种元素但也有缺点,如思考停顿、难以预知内容等,此时飞书妙记或语音转文字初稿可帮助快速跳转想看的位置。Whisper 模型识别字幕准确度高,比飞书妙记或讯飞等工具更准确。乔向阳因自身需求将相关技术工程化、产品化,认为技术在进步且这是市场所需。
2025-02-18
ai生成短视频,有没有免费的工具
以下是一些免费生成短视频的工具: 1. Project Odyssey:这是全球最大的生成式 AI 视频竞赛之一,提供超过 30 种工具的免费额度,累计超过 75 万美元。 2. ChatGPT + 剪映:ChatGPT 可以生成视频小说脚本,剪映则可以根据脚本自动分析并生成对应的素材和文本框架。 3. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频,且免费无限生成。 4. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应的视频内容。 5. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划内容。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,能够帮助您快速生成吸引人的视频内容。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-18
哪一款AI 可以实现参考一张柱状图,使用我提供的数据,生成同样的柱状图
以下两款 AI 可以实现参考一张柱状图,使用您提供的数据生成同样的柱状图: 1. PandasAI:这是让 Pandas DataFrame“学会说人话”的工具,在 GitHub 已收获 5.4k+星。它并非 Pandas 的替代品,而是将 Pandas 转换为“聊天机器人”,用户可以以 Pandas DataFrame 的形式提出有关数据的问题,它会以自然语言、表格或者图表等形式进行回答。目前仅支持 GPT 模型,OpenAI API key 需自备。例如,输入“pandas_ai.run”,即可生成相关柱状图。链接:https://github.com/gventuri/pandasai 2. DataSquirrel:这是一款自动进行数据清理并可视化执行过程的数据分析工具,能帮助用户在无需公式、宏或代码的情况下快速将原始数据转化为可使用的分析/报告。目前平台提供的用例涵盖了 B2B 电子商务、人力资源、财务会计和调查数据分析行业。平台符合 GDPR/PDPA 标准。链接:https://datasquirrel.ai/
2025-02-18
即梦ai里,关于智能画布中的参考图的具体作用
在即梦 AI 中,智能画布中的参考图具有以下重要作用: 1. 实现多种商业创意设计:只需上传一张参考图,就能快速生成多种创意设计,例如模特图的变装、换发型、换脸、换发色和调整人物姿势;产品图的材质和背景改变;电商海报的背景、元素更改等。 2. 提升设计的灵活性和可塑性:在奶茶宣传图的制作中,参考图在制作步骤中发挥了关键作用,如在第 1 步找参考图,为后续的生成和融合等操作提供基础。 基础操作包括: 1. 打开即梦官网 https://jimeng.jianying.com/ 。 2. 选择图片生成。 3. 选择导入参考图(上传一张参考图,点击智能参考)。 相关案例: 1. 模特图自由定制:通过智能参考,轻松实现模特图的多种变化。 2. 产品图随心变化:可以改变产品材质和画面背景。 3. 电商海报一键搞定:支持随意更改背景、元素,适应不同营销主题。 原文链接:https://mp.weixin.qq.com/s/sD0RFMqnFZ6Bj9ZcyFuZNA
2025-02-17
即梦ai里,关于智能画布中的参考图的具体作用
在即梦 AI 中,智能画布中的参考图具有以下重要作用: 1. 实现多种商业创意设计:只需上传一张参考图,就能快速生成多种创意设计,例如模特图的变装、换发型、换脸、换发色和调整人物姿势;产品图的材质和背景改变;电商海报的背景、元素更改等。 2. 提升设计的灵活性和可塑性:在奶茶宣传图的制作中,参考图在制作步骤中发挥了关键作用,如在第 1 步找参考图,为后续的生成和融合等操作提供基础。 基础操作包括: 1. 打开即梦官网 https://jimeng.jianying.com/ 。 2. 选择图片生成。 3. 选择导入参考图(上传一张参考图,点击智能参考)。 相关案例: 1. 模特图自由定制:通过智能参考,轻松实现模特图的多种变化。 2. 产品图随心变化:可以改变产品材质和画面背景。 3. 电商海报一键搞定:支持随意更改背景、元素,适应不同营销主题。 原文链接:https://mp.weixin.qq.com/s/sD0RFMqnFZ6Bj9ZcyFuZNA
2025-02-17
做chatbi有什么开源项目可以参考
以下是一些可参考的做 chatbot 的开源项目: Inhai:Agentic Workflow:其中介绍了大模型利用「网页搜索」工具的典型例子,还包括 Agent 自行规划任务执行的工作流路径以及多 Agent 协作的内容。 ChatDev:吴恩达通过此开源项目举例,可让大语言模型扮演不同角色相互协作开发应用或复杂程序。 ChatMLX:多语言支持,兼容多种模型,具有高性能与隐私保障,适用于注重隐私的对话应用开发者。链接:https://github.com/maiqingqiang/ChatMLX
2025-02-17
基于参考图片人物形象生成指定迪士尼风格的图片
以下是关于基于参考图片人物形象生成指定迪士尼风格图片的相关内容: 在 Midjourney 中,生成指定迪士尼风格的图片可以通过以下方式: 1. 角色参考(cref):cref 的功能是保持图像角色的一致性。使用方法是在提示后添加 cref,并紧接着指向人物参考图像的 URL。您可以使用 cw 来调整参考图像对生成的图像的影响程度,数值范围从 0 到 100。 2. 风格参考(sref):sref 的功能是生成类似风格的图片,保持画风的一致性。使用方法是在提示后添加 sref,并紧接着指向风格参考图像的 URL。您可以使用 sw 来调整参考风格对生成的图像的影响程度,数值范围从 0 到 1000。 如果想引用一张图,但只是把它作为新图的一部分,可以使用 sref 或 cref,并通过调整 sw 或 cw 的值来控制引用图像的影响程度。 生成一张 Disney 风格的头像的具体步骤如下: 1. 选一张比较满意的图片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取图片,然后在聊天框发送(记得点击回车或发送按钮)。 2. 图片会上传到服务器并生成一张唯一的链接,点击图片,然后点击在浏览器中打开,然后可以看到浏览器上方有一个链接,复制下来。 3. 使用这个链接加 prompt 提示词来发送给 Midjourney,Midjourney 会根据需求生成特定的图片,这就是 Midjourney 的以图绘图。 此外,在生成 3D 效果图时,如生成可爱的拟人小鹿角色,可以在即梦图片生成界面中导入参考图,参考选项为参考轮廓边缘,生图模型选择 图片 2.0,输入包含角色、细节描述、场景、风格材质等的提示词,生成图片。
2025-02-12
生成漫画动作参考图
以下是一些生成漫画动作参考图的方法: 1. 喂参考图:先上传喜欢的参考图,复制其链接。在关键词处填写“图片链接+这张图的关键词”,例如“链接图片.png,a Super cute sports girl,wearing a basketball vest,blueshortsbig watery eyes,clean bright basketball court background,super cute boy IP by pop mart,Bright color,mockup blind box toydisney stylefine luster,3D render,octane render,best quality,8k brightfront lightingFace Shot,fine luster,ultra detail,ar 9:16”。还可以通过修改关键词改变服装颜色等细节。 2. 使用 panels 命令:此命令可生成连续的动作和表情设计,将模型设置改为 niji mode 画动漫角色效果更好。例如“a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with different poses 8K”,也可以使用“continuous running”生成更稳定的连续动作,甚至做成 gif 动画。 3. 利用 character sheet 命令:创建一个角色的多角度以及特写细节,例如“a Super cute sports anime girl,style by Miyazaki Hayao,character sheet,full body,8k”。 4. 使用 emoji、expression sheet:emoji 代表表情包,expression sheet 代表各种表情组合,可用此核心关键词设计出表情包。例如“图片链接.png a Super cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k”。 另外,使用 ControlNet 插件也能生成漫画动作参考图。首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高,对图片的参考越强。可以通过添加关键词的方式给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等。这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。
2025-02-11