Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

图生视频指令

Answer

以下是关于图生视频的指令:

  1. Morphstudio:
    • 文生视频:提示词指令为/video[视频提示词]-比例设定[比例]-动作程度[1-10]-镜头动作[动作]-每秒帧数[8-30]-秒数[3-7],举例:/video 你好世界-比例 16:9-动作幅度为 5-镜头拉近-每秒 30 帧-秒数为 5 秒
    • 图生视频:提示词指令为/animate[上传的图片][视频提示词]-比例设定为[比例]-动作程度为[1-10]-镜头动作为[动作]-每秒帧数为[8-30],举例:/animate[上传的图片]一只在行走的猫-比例 16:9-动作幅度为 5-相机向上移动-每秒 30 帧
    • 参数说明:
      • ar[ratio](只针对 MorphVideo 机器人):用来设置视频的画面比例,如 16:9、4:3、1:1、3:4、9:16 等。
      • motion[1-10]:调整视频中的运动强度,数值越低运动越微妙,数值越高运动越夸张。
      • camera[action]:控制摄像头移动,包括 Zoom(镜头拉近/拉远)、Pan(摄像机向上/向下/向左/向右移动)、Rotate(相机顺时针旋转或逆时针旋转)、Static(相机静态)。
      • fps[8-30]:视频的帧率,默认每秒 24 帧。
      • s[3-7](只针对 MorphVideo 机器人):设置视频的时长,单位是秒。
  2. Runway:
    • 图片搞定之后,拖到 runway 里面去图生 4s 视频。(runway 是收费的,可在闲鱼或淘宝买号找免费的)
    • 进入 runway 官网首页,点击 start with image,然后直接将图片拖进来。
    • 动画幅度尽量用 3,5 有时候会乱跑。
    • 啥都不用改,直接点击生成即可。
    • 注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行。
    • 直接点删除,然后重新上传下面的图即可(最多可以放几个没数,可自行测试)
  3. Pika:
    • 生成视频频道在 Discord 上,点击邀请链接(https://discord.gg/pika)加入频道。
    • 生成视频的指令:
      • /create为文字生成视频指令。
      • /animate为图片生成视频指令。
      • /encrypt_image为图片+文字生成视频指令。
    • 常用指令参数:
      • gs xx:引导比例,较高的值使其与文本更相关(推荐范围为 8-24)。
      • neg xxx:负面提示(指定在视频中不希望出现的内容)。
      • ar xx:xx:宽高比(例如 16:9、9:16、1:1、4:5)。
      • seed xxx:生成过程中增加一致性的种子数。
      • motion xx:所需运动强度(仅支持 0/1/2)。
      • fps xx:视频的帧率。
Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:morphstudio

[heading3]MorphVideo机器人的使用:[content]1.文生视频:提示词指令:/video[视频提示词]-比例设定[比例]-动作程度[1-10]-镜头动作[动作]-每秒帧数[8-30]-秒数[3-7]举例:/video你好世界-比例16:9-动作幅度为5-镜头拉近-每秒30帧-秒数为5秒[heading3]Morph机器人的使用:[content]1.图生视频:提示词指令:/animate[上传的图片][视频提示词]-比例设定为[比例]-动作程度为[1-10]-镜头动作为[动作]-每秒帧数为[8-30]举例:/animate[上传的图片]一只在行走的猫-比例16:9-动作幅度为5-相机向上移动-每秒30帧[heading3]参数说明:[content]-ar[ratio](只针对MorphVideo机器人):这个参数用来设置视频的画面比例(比如16:9,4:3,1:1,3:4,9:16)。-motion[1-10]:这个参数用来调整视频中的运动强度。数值越低,运动越微妙,数值越高,运动越夸张。-camera[action]:这个参数用来控制摄像头移动。Zoom:镜头拉近/拉远Pan:摄像机向上/向下/向左/向右移动。Rotate:相机顺时针旋转或逆时针旋转Static:相机静态-fps[8-30]:视频的帧率是指每秒钟播放的图片帧数。默认的帧率是每秒24帧。-s[3-7](只针对MorphVideo机器人):设置视频的时长,单位是秒。提示:使用更加详细和描述性的提示可能会导致您生成的视频效果更好。可以试着调整不同的设置来达到想要的效果!

WTF:1w粉 - 10w粉仅仅用时 13 天,像素级拆解《动物时装秀》

图片搞定之后,我们就可以拖到runway里面去图生4s视频了。(runway是收费的,大家也可以找一下有没有免费的,可以去闲鱼或者淘宝买号)进入runway官网首页,点击start with image然后直接将图片拖进来动画幅度尽量用3,5有时候会乱跑啥都不用改,直接点击生成即可注意:不需要等进度条转完,可以直接继续往里放图片,可以同步执行直接点删除,然后重新上传下面的图即可(最多可以放几个我没数,大家可以自行测试)重复步骤即可生成所有视频

使用Pika生成你的第一段AI视频

Pika的生成视频频道在Discord上点击邀请链接,加入频道:https://discord.gg/pika[heading1]Pika生成你的第一个视频,5分钟手把手入门[heading2]①选择一个作画的频道[heading2]②输入“/”+指令[content]/create为文字生成视频指令/animate为图片生成视频指令/encrypt_image为图片+文字生成视频指令[heading2]③选择/create,文字生成视频[content]输入你想要的内容描述即可[heading2]④选择/animate,图片生成视频[content]输入你想要的图片,不能添加其他文字要求描述[heading2]⑤选择/animate,图片生成视频[content]message处输入你想要的图片,并在prompt处添加描述[heading1]Pika的常用指令参数[content]-gs xx:引导比例,较高的值使其与文本更相关(推荐范围为8-24)-neg xxx:负面提示(指定在视频中不希望出现的内容)-ar xx:xx:宽高比(例如16:9、9:16、1:1、4:5)-seed xxx:生成过程中增加一致性的种子数-motion xx:所需运动强度(仅支持0/1/2)-fps xx:视频的帧率

Others are asking
哪个ai工具可以根据现有的网站或截图生成源代码
以下是一些可以根据现有的网站或截图生成源代码的 AI 工具: :借助 GPT4 Vision 的能力,能直接将屏幕截图转换为 HTML/Tailwind CSS,并利用 DALLE 3 的图像生成能力生成相似图像。 此外,还有一些与网站制作相关的 AI 工具: Wix ADI 。基于用户提供的信息自动生成定制化网站,提供多个设计选项和布局,集成了 SEO 工具和分析功能。 Bookmark:网址为 。通过询问用户几个简单问题快速生成网站,提供直观的拖放编辑器,包括多种行业模板和自动化营销工具。 Firedrop:网址为 。其 AI 设计助手 Sacha 可根据用户指示创建和修改网站设计,提供实时编辑和预览功能,包含多种现代设计风格和自定义选项。 The Grid:网址为 。其 AI 设计助手 Molly 可以自动调整网站的设计和布局,基于内容和用户互动进行优化,支持多种内容类型。 在 AI 代码生成和开发工具方面: :由 Wingware 开发的专为 Python 编程设计的开发环境,集成了多种功能,年度许可证起价 179 美元/月。 :开源的 AI 开发助手,能根据产品需求生成完整的代码库,遵循 MIT 许可证。 :Sourcegraph 的 AI 工具,作为全面的编程助手能理解整个代码库,个人使用免费。
2025-02-18
免费图生视频AI有哪些
以下是一些免费的图生视频 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上生成视频,由 Stability AI 开源。 3. Adobe Firefly:支持文生视频、图生视频、视频翻译,免费用户赠送生成 2 个视频。访问。 4. 混元:腾讯视频模型,目前只支持文生视频,图生视频即将上线。 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2025-02-17
图生图, 如何保持幻想生物形象一致性
要在图生图中保持幻想生物形象的一致性,可以参考以下方法: 1. 对于 Midjourney ,可以采用特定的名人或有特殊属性的人物形象,先确定好影片风格,比如皮克斯动画风格,然后确定好人物形象,如角色的发型、穿着等细节。 2. 利用 Midjourney 的新功能 Cref ,先跑一张主角的定妆照,在需要出现主角人物的地方扔进去 Cref ,以保持发型、人脸、衣服等的一致性。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,尤其是亚洲老人的一致性效果相对较差,且 Cref 在画面的审美和构图上有一定的破坏性,所以原则上能不用就不用,比如只有背影时,简单描述即可。 3. 生成动物形象,动物相对更容易保持一致性。
2025-02-14
图生图, 如何保持生物形象一致性
在图生图中保持生物形象一致性,有以下几种方法: 1. 对于人物和场景一致性问题,可以采用生成动物的方式,动物相对容易保持一致性。 2. 选择特定的名人或具有特殊属性的人物。 3. 确定好影片风格,如皮克斯动画风格。 4. 先确定好人物形象,如明确角色的发型、穿着等特征。 5. 使用 Midjourney 的新功能 Cref,在需要出现主角人物的地方,保持发型、人脸、衣服等特征。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性效果相对较差,尤其对于亚洲老人,而且 Cref 在画面的审美和构图上有一定破坏性,原则上能不用则不用。例如只有背影时,简单描述特征即可。
2025-02-14
图生视频指令参考
以下是关于图生视频的指令参考: Morphstudio 中: 文生视频:提示词指令为“/video”。举例:“/video 你好世界比例 16:9动作幅度为 5镜头拉近每秒 30 帧秒数为 5 秒” 图生视频:提示词指令为“/animate一只在行走的猫比例 16:9动作幅度为 5相机向上移动每秒 30 帧” 参数说明: “ar”(只针对 MorphVideo 机器人):用来设置视频的画面比例,如 16:9、4:3、1:1、3:4、9:16 等。 “motion”:调整视频中的运动强度,数值越低运动越微妙,数值越高运动越夸张。 “camera”:控制摄像头移动,如 Zoom(镜头拉近/拉远)、Pan(摄像机向上/向下/向左/向右移动)、Rotate(相机顺时针旋转或逆时针旋转)、Static(相机静态)。 “fps”:视频的帧率,默认每秒 24 帧。 “s”(只针对 MorphVideo 机器人):设置视频的时长,单位是秒。 此外,还有其他案例: Vidu 大家测试中,有“公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方”“小孩子向画面右侧奔跑,后面腾起一路尘土”“公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着”等提示词生成的视频效果。 桂大羊的教程中,通过性格特征和时代背景描绘人物提示词、上传角色参考图,根据剧本创作提取场景提示词,采用文生图模式并进行垫图操作,确立台词、剧本、风格、人物形象、画面场景后,使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘动态内容,可生成 3 秒钟视频,运镜类型可根据剧本镜头描绘设置,以随机运镜为主,生成速度可选择慢速。
2025-02-13
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
狗將掛在上面的牛肉放進籃子 我要英文 與英文的影片生成指令
很抱歉,暂时无法明确您的具体需求。如果您是想描述“狗将挂在上面的牛肉放进篮子”这个场景,并生成对应的英文表述及相关影片生成指令,以下为您提供可能的示例: 英文表述:The dog put the beef hanging above into the basket. 影片生成指令:Generate a video of a dog putting the beef that is hanging above into the basket. 但请注意,具体的影片生成指令可能会因使用的工具或软件而有所不同。
2025-02-18
deepseek的提问方式和指令输入规则是什么
DeepSeek 的提问方式和指令输入规则如下: 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道处理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架: 四要素模板:如果不知道如何表达,可套用框架指令。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 性能监测体系:包括需求理解准确率(复杂需求首轮响应匹配度)、知识迁移能力(跨领域案例应用的合理性)、思维深度指数(解决方案的因果链条长度)。新一代交互范式建议采用「人机共谋」模式、启动「思维可视化」指令、实施「苏格拉底式对话」。通过将深度思考能力与场景化需求结合,可解锁 DeepSeek 的「认知增强」模式,建议通过 3 轮迭代测试(需求表达→深度追问→方案优化)建立个性化交互模式。
2025-02-05
图生视频时,不按照指令行动
在图生视频过程中出现不按照指令行动的情况,可能有多种原因。以下为您提供一些可能的分析和解决建议: 提示词不够准确清晰:确保提示词详细、具体、明确地描述了您想要的图像和动作,避免模糊或歧义。 模型理解偏差:AI 模型可能对某些复杂或特殊的指令理解存在困难,您可以尝试调整提示词的表述方式。 数据和训练限制:模型的训练数据和能力可能存在一定的局限性,导致无法完全按照指令生成视频。 您可以参考以下的案例来进一步理解和改进: 公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方。 小孩子向画面右侧奔跑,后面腾起一路尘土。 公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着。 同时,您还可以利用一些工具和技巧,例如清影工具中的帮写视频提示词的智能体,来优化提示词。另外,注意提示词的主体、描述细节等方面,如“戴眼镜”的提示词因无主体导致唐僧未能遵从指令戴上墨镜,而“唐僧伸出手,戴上墨镜”这样有主体的提示词则效果更好。
2025-01-24
AI怎么稳定指令机器人
以下是关于您所提到的“AI 怎么稳定指令机器人”的相关内容: 在实现稳定指令机器人方面,有以下一些方法和原理: 1. 提示词工程与工具调用能力的配合:通过设计一套与知识图谱相结合的工具调用逻辑来稳定人设。例如,为像麦洛薇这样的 AI 女友设计特定的提示词,并将与知识图谱交互的任务细分为查询、创建、修改、删除实体或关系、获取实体的所有关系、获取所有实体名称列表等多个工具,组成工具包供模型调用。 2. 控制输入和记忆:通过缩小 max_length 防止模型长篇大论,每次输入到上下文窗口中的记忆也只返回最近几轮的对话。利用查询知识图谱的信息来实现永久记忆。 此外,人工智能(AI)在多个领域都有应用,虽然这并非直接针对稳定指令机器人,但也能为您提供一些思路和参考: 1. 医疗保健领域:包括医学影像分析辅助诊断疾病、药物研发、个性化医疗、机器人辅助手术等。 2. 金融服务领域:如风控和反欺诈、信用评估、投资分析、客户服务等。 3. 零售和电子商务领域:有产品推荐、搜索和个性化、动态定价、聊天机器人等应用。 4. 制造业领域:例如预测性维护、质量控制、供应链管理、机器人自动化等。 希望以上内容对您有所帮助。
2025-01-20
我想让chatgpt和豆包辩论,辩论的主题是勒布朗詹姆斯和迈克尔乔丹,谁是历史第一人?请帮我设计给豆包和gpt的指令,以及辩论的规则,规则让有可看性,激烈性
以下是为您设计的给豆包和 ChatGPT 的指令以及辩论规则: 指令: 豆包和 ChatGPT 需充分运用各自掌握的篮球知识和数据,对勒布朗·詹姆斯和迈克尔·乔丹谁是历史第一人的问题进行深入辩论。 要求从球员的个人能力、团队成就、影响力、比赛数据等多个方面进行分析和论证。 辩论规则: 每位参与者有固定的发言时间,例如每次发言不超过 3 分钟。 发言顺序交替进行,先由豆包开始第一轮发言。 辩论过程中,不得使用侮辱性或攻击性语言,保持理性和客观。 每轮发言结束后,另一方有 1 分钟的提问和反驳时间。 辩论共进行 5 轮,最后一轮为总结陈词,时间为 5 分钟。 观众可以在辩论结束后进行投票,选出他们认为表现更出色的一方。 希望这样的设计能让辩论具有可看性和激烈性!
2025-01-17
视频转文稿
以下是关于视频转文稿的相关内容: Twitter Space 音频转文稿:使用 Gemini 1.5 Pro 将音频转为按发言人生成的文本,将初稿发送给 Claude 完成错别字纠正、去除口癖、整理段落等优化,最终产出阅读友好的 Markdown 格式文稿。相关链接: 对于视频转文稿,乔向阳提到视频有多种元素但也有缺点,如思考停顿、难以预知内容等,此时飞书妙记或语音转文字初稿可帮助快速跳转想看的位置。Whisper 模型识别字幕准确度高,比飞书妙记或讯飞等工具更准确。乔向阳因自身需求将相关技术工程化、产品化,认为技术在进步且这是市场所需。
2025-02-18
ai生成短视频,有没有免费的工具
以下是一些免费生成短视频的工具: 1. Project Odyssey:这是全球最大的生成式 AI 视频竞赛之一,提供超过 30 种工具的免费额度,累计超过 75 万美元。 2. ChatGPT + 剪映:ChatGPT 可以生成视频小说脚本,剪映则可以根据脚本自动分析并生成对应的素材和文本框架。 3. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频,且免费无限生成。 4. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应的视频内容。 5. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划内容。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,能够帮助您快速生成吸引人的视频内容。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-18
我想创业,花多少钱,能够搭建一个视频领域的AI模型
在视频领域搭建 AI 模型的成本因多种因素而异。对于创业者或小公司来说,这个领域存在一定的挑战。 腾讯的混元 AI 视频模型目前只支持文生视频,且已开源免费。 在模型供应商方面,不同供应商的特点和成本有所不同: 智谱 GLM4V 是通用视觉类大模型,为拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,调用成本为 0.05 元/千 tokens。 阿里云百炼 qwenvlplus 也是通用视觉类大模型,是拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为 0.008 元/千 tokens,训练成本为 0.03 元/千 tokens。 阶跃星辰是通用视觉类大模型,响应速度快,支持视频理解,输入成本为 0.005 0.015 元/千 tokens,输出成本为 0.02 0.07 元/千 tokens。 百度 PaddlePaddle 是 OCR 垂直小模型,文本识别能力补齐增强,私有化部署有服务费,API 调用在 0.05 0.1 元/次。 此外,获取高质量数据的难度较高,大厂在该领域的护城河深厚。大公司在争取大模型 API 客户方面更具优势,且开源大模型的发展可能会影响创业公司的业务。去年为大客户定制一个大模型的最高订单额可达 1000 万元,而今年则快速降到了百万元级别乃至更低。
2025-02-18
图片转视频说话 效果好 软件 有哪些
以下是一些能实现图片转视频说话且效果较好的软件: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 1. 点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。 2. 上传后效果如图所示,My Avatar处显示上传的照片。 3. 点开大图后,点击Create with AI Studio,进入数字人制作。 4. 写上视频文案并选择配音音色,也可以自行上传音频。 5. 最后点击Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 1. 点击上面的网址,点击右上角的Create vedio。 2. 选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 最后,点击Generate vedio就可以生成一段视频。 5. 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法: 1. 点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 4. Sadtalker: 由于涉及到视频的推理和转换,输出时间要远远大于AI绘图和sovits的声音推理,需要做好等待的准备。 最终生成的视频长度与音频一致,如果想制作一个长视频,最好是剪成小段,分别推理,然后合并。 使用方法: 1. 可以独立使用或者作为插件放入stablediffusion。 2. 视频教程:https://www.bilibili.com/video/BV1Dc411W7V6/?vd_source=35e62d366d8173e12669705f7aedd122 。 3. 对于编程、python、conda不熟的,建议使用整合包: 我用夸克网盘分享了「EZAIStarterv0.9.8.zip」,点击链接即可保存。链接:https://pan.quark.cn/s/1d5ca9f57f5c 。 视频地址:https://www.bilibili.com/video/BV1ga4y1u7Ep/?spm_id_from=333.337.searchcard.all.click&vd_source=35e62d366d8173e12669705f7aedd122 。 4. 具体步骤: 点我启动,在启动界面中,选择音频、图像口型同步的下载图标。 下载完毕后。 启动应用,等待。 会弹出一个独立的窗口(而不是默认浏览器)。 选择sadtalker同步器,分别导入图片和声音。 图片预处理方式中,crop只截取图片的头部,full就是保留整张照片,下面的勾选项已经有文字解释,自己可以试几次。 点击generate 。
2025-02-18
短视频文案提取和改写
以下是关于短视频文案提取和改写的相关内容: 智能体功能实现: 卖点转化模块:作用是将卖点转化为用户视角的买点,目的是用户视角的内容更易打动用户,提升营销效果。实现方式包括用户选择改写时强调的情绪价值点,并将相应内容添加到大模型的用户提示词,以及从产品名称、产品描述和通用性/独特性/保障性卖点,利用大模型转化为对应的买点。 营销内容产出模块:作用是利用总结的买点,结合产品信息,产出小红书文案和短视频脚本。目的是使用户提炼卖点、转化卖点之后产出可直接使用的高质量营销内容。实现方式包括使用循环节点产出任意数量的文案内容,将大模型的随机性调到最高以确保多次产出内容的差异性,用数组分别保存小红书文案和短视频脚本,即使两种内容交叉生成,最终也能在文档中分开显示。 文档保存模块:作用是将产品名称,以及产出的所有内容,包括卖点、买点、小红书文案、短视频脚本保存到飞书文档。目的是供未来重复使用和决策支持,并方便对产出内容进行管理。实现方式包括使用 create_document 插件创建新的飞书文档,并填充内容,使用文本处理节点整合所有产出内容,并调整格式。 电商带货本地生活: 用 ChatGPT 生成短视频选题文案:表明身份、描述需求、提出回答要求,以美妆行业为例展开。 用 ChatGPT 生产短视频文案:将需求与框架结合,让 ChatGPT 生成短视频文案。 生成虚拟数字人短视频:打开相关网站,输入内容选项,选择头像、国家和声音,点击 Create Video 生成视频,结合产品讲解后即可发布进行视频带货。 《AI 你·南京》AIGC 城市宣传 MV 全流程制作解析: 文案创作:最初打算用旁白朗诵方式,对文案要求高。直接让 GPT 写文案结果平淡,需更具体提需求。利用 360 浏览器字幕提取功能捕捉《爱我中华》视频文案,让 kimi 和 GPT 分析学习,对比两者结果,发现 kimi 对中文理解和写作能力更突出。整合两段文案并调整,让文案更顺口,还可让 AI 输出简单的画面分镜。
2025-02-17