Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

短视频 提示词

Answer

以下是关于短视频提示词的相关内容:

Pikadditions 功能

  1. 上传基础视频
    • 点击页面下方的【Pikaddition】按钮。
    • 拖拽或点击上传本地视频。
    • 若自己没有视频,可在“templates”板块使用官方示例视频做测试。
  2. 添加主角图片
    • 点击【Upload Image】上传角色图片文件。
  3. 编写视频提示词
    • 若需要参考角色在视频里的相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。
    • Pika 会提供一段默认 prompt,若没有特殊想法,可以直接使用。
    • 建议在自己的提示词尾部加入官方提供的默认提示词,效果会更好。
    • 该功能提示词公式参考:[时间触发点]+[角色行为描述]+[与视频元素的互动]+[官方默认提示词]
    • 事件驱动句式:As[视频现象].../When[动作].../At[时间戳]...
    • 空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the...
    • 动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching...

Coze 智能体创建

  1. “开始”节点
    • 共有 4 个输入变量,分别为:idea_txt(主题观点)、left_to_txt(画面左上角的文字)、right_to_txt(画面右上角的文字)、img_prmpot(画面中间图片生成提示词)。
    • 注意:这 4 个变量名称要和智能体中提示词的变量对应一致,方便接收用户传入的参数。
  2. “大模型”节点
    • 使用 DeepSeek R1 模型,提示词要求不复杂,说出需求即可,格式可用大白话说出来。
  3. “文本”节点
    • 为将文案分句,每一句要生图、配音。选择按“句号”分句,具体可根据文案格式选择不同方式。
  4. “图像生成”节点
    • 使用官方插件,模型选“LOGO 设计”。若要生成全景图,此插件效果欠佳,建议选其它插件。
  5. “抠图节点”
    • 将上个节点生成的图片进行抠图。

编剧提示词 默认适合大框架的故事结构。若做短视频,在提交创作偏好时标注片长,比如:这是个 3 分钟的短视频。输出是分阶段的,几个来回就可以搞定剧本。

Content generated by AI large model, please carefully verify (powered by aily)

References

🌟 Pika来整活了,新功能「Pikadditions」一键让虚拟主角「活」进你的视频!

1.点击页面下方的【Pikaddition】按钮2.拖拽或点击上传本地视频💡贴士:如果自己没有视频可以在“templates”板块里使用官方示例视频做测试[heading4]📌Step 2:添加主角图片[content]点击【Upload Image】上传角色图片文件[heading4]📌Step 3:编写视频提示词[content]如果你需要参考角色在视频里有相关互动,则需要在输入框用英文描述期望效果(支持Emoji辅助),然后点击生成按钮即可💡贴士:1.pika会提供一段默认prompt,如果你没有特殊想法,可以直接使用这段提示词。2.建议在你自己的提示词尾部加入官方提供的默认提示词,效果会更好。官方默认提示词:🔥该功能提示词公式参考:[时间触发点]+[角色行为描述]+[与视频元素的互动]+[官方默认提示词]1.事件驱动句式:As[视频现象].../When[动作].../At[时间戳]...2.空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the...3.动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching...✅核心逻辑:Pikadditions的核心功能是用户上传实拍视频和角色图片,AI将角色动态融入视频中。因此,提示词需要具体描述角色在视频中的动作、互动和场景匹配

输入观点一键生成文案短视频

这里一共有4个输入变量,分别为:idea_txt:主题观点left_to_txt:画面左上角的文字right_to_txt:画面右上角的文字img_prmpot:画面中间图片生成提示词注意:这4个变量名称要和智能体中提示词的变量对应一致,方便接收用户传入的参数。[heading5]2、“大模型”节点[content]这里是文案好坏的核心,使用目前大家公认的DeepSeek R1模型。对于R1来说,提示词要求不复杂,只要你说出你的需求即可,格式都可以用大白话说出来。提示词如下:[heading5]3、“文本”节点[content]这里是为了将文案分句,每一句要生图、配音。这里选择了按“句号”分句,具体可根据文案的格式,选择不同方式。[heading5]4、“图像生成”节点[content]使用官方插件,模型选“LOGO设计”。注意:若要生成全景图,我感觉这个插件效果堪忧,建议选其它插件。提示词:[heading5]5、“抠图节点”[content]将上个节点生成的图片进行抠图。

编剧提示词01 —— 剧本创作

小提示一下,这个默认适合大框架的故事结构;如果你做短视频,你需要在提交创作偏好时标注片长,比如:这是个3分钟的短视频它的输出是分阶段的,几个来回就可以搞定剧本

Others are asking
有没有输入点子可以生成视频文案的多维表格模板
以下是关于输入点子生成视频文案的多维表格模板的相关信息: 概述: 基于其他博主开源的视频生成工作流进行功能优化,实现视频全自动创建。感谢开源,现提供教程参考。 先看效果: 功能: 通过表单输入主题观点,提交后自动创建文案短视频,创建完成后推送视频链接到飞书消息。 涉及工具: 1. Coze 平台(工作流、DeepSeek R1、文生图、画板、文生音频、图+音频合成视频、多视频合成) 2. 飞书(消息) 3. 飞书多维表格(字段捷径、自动化流程) 大体路径: 1. 通过 coze 创建智能体,创建工作流,使用 DeepSeek R1 根据用户观点创建文案,再创建视频。 2. 发布 coze 智能体到飞书多维表格。 3. 在多维表格中使用字段捷径,引用该智能体。 4. 在多维表格中创建自动化流程,推送消息给指定飞书用户。 获取字节火山 DeepSeek 系列 API 完整教程及使用方法: 邀请可拿 3000 万 tokens,附上宝藏飞书多维表格模板,包括营销类、投资和电商、工具论文效率类、有趣类等,如: 智能体发布到飞书多维表格: 1. 工作流调试完成后,加入到智能体中。可以选择工作流绑定卡片数据,智能体通过卡片回复。 2. 发布时选择需要的发布渠道,重点讲飞书多维表格。记得智能体提示词的 4 个变量,发布时会自动出现,目的是为了在多维表格中选择关联字段。填写上架信息(为快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 多维表格的字段捷径使用: 1. 创建飞书多维表格,添加相关字段,配置后使用字段捷径功能,使用自己创建的 Coze 智能体。选择“自动更新”,输入 4 个字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 2. 表单分享,实现填写表单自动创建文案短视频。 自动化推送: 点击多维表格右上角的“自动化”,创建想要的自动化流程。
2025-02-24
视频分析
以下是关于视频分析的相关内容: 使用 Gemini 进行视频分析: 可以放入自己的案例,文档可编辑。 思路:如拿库布里克的电影来分析,学习大师手法;b 站大学复习有帮助;可用于影视二创长剪短、警察查监控等场景,替代 Opus 等长剪短工具。 测试者阿强的体验:好用,准确度高,对功夫熊猫版如来神掌的分析效果好,能准确认出“如来神掌”。 测试者 PeacePower 的结论:Gemini API 不支持原生的视频分析,UI 提现的视频分析是通过按 frame rate 提取关键帧分析,可能出现丢帧情况。可设置条件提供采样率,默认条件识别次数不准确。 宝玉日报 2 月 10 日提到: 选对模型是关键,GPT4o 目前无法直接解析视频,Gemini 2.0 Flash Thinking 是解析视频的最佳选择。 AIStudio 免费可用,需海外 IP,上传视频即可解析。并提供了视频解析示例及相关链接。
2025-02-24
抓取视频文字的浏览器插件
以下是为您找到的与抓取视频文字的浏览器插件相关的信息: 视频内容分析模型,上传视频后可以生成视频内容的文本描述。来源: 一个浏览器插件,可以用 AI 读取您的邮件内容并帮您生成回复。来源: 此外,还有关于其他插件的相关内容: 适用于 Google 表格的无代码机器学习插件。来源: 对 Chat GPT 二次封装的产品,可以访问互联网数据以及支持直接生成图片。来源: Luma Imagine 3D 一种用文本创建 3D 的新方法。来源: RF Diffusion 模型,帮助设计蛋白质结构的扩散模型。来源: PubMed GPT:生物医学文本的特定领域大型语言模型。来源: 还有关于制作插件的一些信息: 如果报错、解析结果不对,可以点击 Raw Response,会看到报错或者返回值,再根据返回值调整配置输出参数。 复制对应的链接到浏览器地址栏,打开查看。 有些文字显示不出来,是因为字体包中没有这个字,所以就会导致显示不出来。这个暂时没什么办法。除非找到更加全面的字体包。 点击完成,就成功的创建了一个插件。 另外,有一款 AI 浏览器插件,目标是实现输入任意文章链接后,AI 自动生成适合微信分享的文章推荐卡片。为了达到这一效果,大模型对话产品需要完成以下关键步骤: 1. 网页爬取:自行访问链接,解析网页内容。 2. 内容总结:根据提示词要求,提炼标题、摘要、要点等信息。 3. 二维码生成:利用 qrcode.js 库,将 URL 转换为二维码图片。 4. 卡片样式生成:基于特定模板设计要求(暂不考虑自适应样式主题),将卡片内容、二维码组合为精美的分享卡片。 值得一提的是,通过实践探索,发现了新的词生卡 Prompt 组织方法:把设计要求拆分为“设计规范”和“内容结构”,再细分为“布局与尺寸”、“字体规范”、“颜色规范”的独立模块,并结合“内容结构”进行要求提示。这种提示词组织方式有 3 个显著优势: 1. 模型通用性:采用纯 Markdown 格式编写,不依赖特定模型的特性,可以适配不同的大语言模型。 2. 提示简易性:提示词结构清晰易读,便于自然语言编写,降低使用门槛。 3. 生成稳定性:通过清晰的模块划分和自然语言描述,避免了指令间的相互干扰,提高了 AI 生成样式代码的准确性和一致性。
2025-02-24
视频分析工具有哪些
以下是一些常见的视频分析工具: 1. Roboflow 的开源计算机视觉工具库 Supervision: 具有视频跟踪器,可追踪物体移动,例如在足球比赛录像中追踪球员移动并分析表现。 区域工具,能选择视频特定区域进行分析,如观察商店货架商品销售情况。 注释器,可在视频上添加文字、标签等信息,例如在烹饪教程视频中添加食材名称和烹饪时间。 是全方位的计算机视觉平台,支持多种注释和图像格式,提供过滤、标签、分割、预处理和增强图像数据等功能,还集成了 OpenAI、Meta AI 等的模型,并提供一系列工具来组织视觉数据、自动化标签和部署基础模型。 官方网站: Github: 2. videoanalyzer: 结合了 Llama3.2 Vision 与 Whisper,通过获取关键帧并将其输入到视觉模型以获取详细信息来创建描述。 支持本地运行。 智能提取视频关键帧。 自动处理质量较差的音频。 分析结果的详细 JSON 输出。 官方网站:
2025-02-24
我是一位短视频AI博主,您能够为我提供哪些帮助呢?
以下是我能为您这位短视频 AI 博主提供的帮助: 1. 为您介绍根据视频脚本生成短视频的工具,例如: ChatGPT 结合剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析并生成素材和文本框架,实现从文字到画面的快速转化。 PixVerse AI:在线 AI 视频生成工具,支持多模态输入转化为视频。 Pictory:允许用户通过提供文本描述轻松创建和编辑高质量视频。 VEED.IO:提供 AI 图像和脚本生成器,帮助规划视频内容。 Runway:能将文本转化为风格化视频内容。 艺映 AI:提供文生视频、图生视频、视频转漫等服务。 2. 为您介绍北京分队中与短视频 AI 相关的人员信息,他们在不同领域具有丰富的经验和技能,可能为您的创作提供灵感或合作机会。例如: wb:对 AI 视频感兴趣,运营私域资源讨论群,关注 AI 前沿动态。 祖海:拥有编导和操盘手资源,从事个人 IP 咨询和陪跑以及 Ai 数字人获客。 宇竹:在多个领域有成功的 IP 操盘经验。 U:业余配音演员和歌手,擅长音频和简单视频剪辑。 萝卜:具备生图和生视频剪辑经验。 李先森:星动 AI 联合创始人,致力于 AI 教育培训和商业应用。 Lucky:在信息技术领域有丰富经验,能提供多种 AI 相关项目服务。 粉仔:抖音上的 AIGC 博主,熟悉主流 AIGC 工具。 sam:热爱互联网和 AI 技术。 海地老师:AI 影视共创社北京分社的负责人。 张帆:产品经理,正在学习 AI,尝试做知识分享。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-24
推荐一个能读取视频并总结出视频内容的ai
以下为您推荐能读取视频并总结视频内容的 AI 工具及方法: 1. GPT 系列: 对于 B 站等有字幕的视频,若视频栏下有字幕按钮,可通过安装油猴脚本获取字幕,将字幕复制发送给 GPT 进行总结。 有开发者利用 OpenAI 升级的 API 对足球比赛视频进行全 AI 解说,具体步骤包括提取视频帧(如使用 OpenCV 初始化视频文件读取,遍历视频逐帧处理并编码为 base64 格式)、构建描述提示(创建结构化提示,定义 GPT 请求参数)、发送 GPT 请求。 2. 视频内容分析模型:可在上传视频后生成视频内容的文本描述。 您可以根据实际需求选择使用。
2025-02-24
deepseek提示词
以下是关于 deepseek 提示词的相关内容: 1. 生成小红书爆款单词视频: 开始时输入单词主题、图片风格、单词数量。 选择 deepseekr1 模型生成单词数组,以数组方式输出,包括单词、中文、美式音标、英文句子及其中文翻译。 提示词中角色设定为专业的单词生成助手,技能是输出关联英语单词,限制为仅围绕用户输入主题输出相关内容,并以特定数组形式呈现。 2. Deepseek 时代提示词的关键诉求: 观察发现完整的提示词可能不如片段有效,甚至可能干扰模型思考流程,过长提示会带来 Token 浪费和上下文污染。 新一代 LLM 的正确打开方式是“关键诉求直通车”模式,如像对聪明助理打暗号,让模型自主发挥。 3. 让 DeepSeek 生成相机运动轨迹的提示词: 以往提示词是场景、构图、尺寸等的组合,现在要求以“相机运动轨迹”方式描写,如“相机向上飞升至上空轨道视角,拍摄站在泳池旁的女子”。 对空间理解和语义遵循能让相关元素自然生成,如生成有光影变化的泳池和匹配场景的拖鞋。
2025-02-24
deepseek的提示词文档
以下是关于 DeepSeek 的相关信息: DeepSeek 爆火,价格亲民且实力超群,是智慧开源领航者,实时联网深度推理双冠王,用技术普惠重新定义了 AI 边界。便宜、开源且能联网,在 Appstore 排行第一,导致算力股大跌。 使用地址:https://chat.deepseek.com/(有手机客户端:扫描下面二维码) 模型下载地址:https://github.com/deepseekai/DeepSeekLLM?tab=readmeovfile API 文档地址:无 DeepSeek 的提示词使用方法比较长,单独列了一篇 魔改版本:https://huggingface.co/ValueFX9507/TifaDeepsex14bCoTGGUFQ4 、https://huggingface.co/mradermacher/DeepSeekR1DistillQwen7BabliteratedGGUF 一个提示词让 DeepSeek 能力更上一层楼的相关内容: 效果对比:用 Coze 做了小测试,对比视频 使用方法: Step1:搜索 www.deepseek.com,点击“开始对话” Step2:将装有提示词的代码发给 Deepseek Step3:认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不稳定) 完整提示词:v 1.3 特别鸣谢:李继刚(【思考的七把武器】在前期提供了很多思考方向)、Thinking Claude(项目是最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源)、Claude 3.5 Sonnet(最得力的助手)
2025-02-24
deepseek提示语链
DeepSeek 提示语相关内容如下: 提示词框架包含四大模块:任务目的(Purpose)、计划规则(Planning Rules)、格式规则(Format Rules)、输出说明(Output)。重点是通过明晰的任务拆分与规则定义,让提示更具可操作性,但不可过度依赖,示例模板可清晰展现开发者背景、任务目标与规则细节。更多信息:https://x.com/dotey/status/1883041528408318382 提示词方法论包括核心原理认知,如多模态理解、动态上下文、任务适应性、系统响应机制等;基础指令框架,如四要素模板、格式控制语法等;进阶控制技巧,如思维链引导、知识库调用、多模态输出等。 DeepSeek 深度推理+联网搜索目前断档第一,官网发声渠道包括使用地址:https://chat.deepseek.com/(有手机客户端:扫描下面二维码),模型下载地址:https://github.com/deepseekai/DeepSeekLLM?tab=readmeovfile,API 文档地址,提示词使用方法可参考,魔改版本:https://huggingface.co/ValueFX9507/TifaDeepsex14bCoTGGUFQ4 https://huggingface.co/mradermacher/DeepSeekR1DistillQwen7BabliteratedGGUF
2025-02-24
常用的提示词框架有哪些?
常用的提示词框架有以下几种: 1. CRISPE(Capacity and Role,Insight,Statement,Personality,Experiment) 2. BROKE(Background,Role,Objectives,Key Results,Evolve) 3. ICIP 框架:包括指令(Instruction,必须)、背景信息(Context,选填)、输入数据(Input Data,选填)和输出指示器(Output Indicator,选填) 4. 情境
2025-02-24
deepseek提示词
以下是关于 deepseek 提示词的相关内容: 1. 生成小红书爆款单词视频: 开始时输入单词主题、图片风格、单词数量。 选择 deepseekr1 模型生成单词数组,以数组方式输出,包括单词、中文、美式音标、英文句子及其中文翻译。 提示词中角色设定为专业的单词生成助手,技能是输出关联英语单词,限制为仅围绕用户输入主题输出相关内容,并以特定数组形式呈现。 2. Deepseek 时代提示词的关键诉求: 观察发现完整的提示词可能不如片段有效,甚至干扰模型思考流程,过长提示会带来 Token 浪费和上下文污染。 在 deepseek 时代,用户只需在关键点进行引导,让模型自主发挥,如“主题:环保|要最新案例|结尾有力道”这种“关键诉求直通车”模式是新一代 LLM 的正确打开方式。 新旧提示法对比:传统方法像唠叨家长,罗列众多要求,限制模型创造力;新型技巧像对聪明助理打暗号,让模型自动调用知识库中最相关数据,自主组织最佳结构。 3. 让 DeepSeek 生成相机运动轨迹的提示词: 以往提示词是场景、构图、尺寸、位置、形态、半身全身、环境的组合。 现在把这些提示词喂给 DeepSeek,要求以“相机运动轨迹”的方式描写,如“相机向上飞升至上空轨道视角,拍摄站在泳池旁的女子”。 对空间理解和对语义的遵循能让有光影变化的泳池自然生成,海螺 AI 甚至能给主角穿上与场景匹配的拖鞋。
2025-02-23
怎么撰写指令才能让deepseek生成自己想要的图片提示词
要让 DeepSeek 生成自己想要的图片提示词,您可以参考以下要点: 1. 明确角色:您是一个专注于为中国儿童创作简单易懂绘画描述的专家。 2. 遵循生成规则: 当输入主体和图片风格后,生成符合逻辑且简单易懂的描述词汇,不增加除主体和画面描述外的其他元素。 若关键词未明显说明是外国,则提到中国。 若关键词未明确是古代,则默认是现代场景和人物。 描述镜头,如近景、远景、特写、中景等。 涉及多个元素时,描述角色方位以营造空间感。 主体为单个人物时,体现人物全身特写。 描述人物的维度包括人物主体、服饰穿搭、发型发色、五官特点、皮肤特点、面部表情、肢体动作、年龄、镜头等。 描述场景的维度包括室内户外、大场景、白天黑夜、特定时段、环境光照、天空、光源方向等。 强调画面主体,其他不体现。若主体是物体则画面主体是物体,是人则主体是人,是风景则主体是风景描述。 3. 利用反推功能:对于图生图,除文本提词框外,还可通过图片框输入。有两种反推提示词的按钮,CLIP 可反推出完整含义的句子,DeepBooru 可反推出关键词组,但可能存在瑕疵,需要手动补充提示词信息。 4. 具体使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 此外,还可参考一些成功的案例和设计思路,如将 Agent 封装成 Prompt 并储存在文件,通过提示词文件让 DeepSeek 实现联网和深度思考功能,优化输出质量等。
2025-02-23