Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

将活动主题拆解为大量结构化提示词,用于文生视频

Answer

以下是将活动主题拆解为大量结构化提示词用于文生视频的相关内容:

技巧 1:提示词的结构 当提示词有清晰的结构时,提示效果最有效。可使用简单公式:[摄像机移动]+[建立场景]+[更多细节];复杂公式:[镜头语言]+[光影]+[主体(主体描述)]+[主体运动]+[场景(场景描述)]+[情绪/氛围/风格]。 例如:无结构提示词“小男孩喝咖啡”,有结构的提示词“摄影机平移(镜头移动),一个小男孩坐在公园的长椅上(主体描述),手里拿着一杯热气腾腾的咖啡(主体动作)。他穿着一件蓝色的衬衫,看起来很愉快(主体细节描述),背景是绿树成荫的公园,阳光透过树叶洒在男孩身上(所处环境描述)”。

技巧 2:提示词的优化 有三个原则:

  1. 强调关键信息:在提示的不同部分重复或强化关键词有助于提高输出的一致性。
  2. 聚焦出现内容:尽量让提示集中在场景中应该出现的内容上。
  3. 规避负面效果:在提示词中写明不需要的效果。 写提示词时,首先要明确场景中的人物和冲突,其次是对场景进行详细描述,包括地点、人物形象、任务动作等细节,使用生动的动词营造动态和戏剧化氛围,第三要加强镜头语言,如推、拉、摇、移、升、降等,每种镜头运动都有其特定作用和效果。

PixelDance V1.4 提示词指南 图生视频的基础提示词结构为:主体+运动。当主体有突出特征时可加上,需基于输入图片内容写,明确写出主体及想做的动作或运镜,提示词不要与图片内容/基础参数存在事实矛盾。

Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:清影

当提示词有清晰的结构时,提示效果是最有效的。使用以下结构有助于生成期望的结果:简单公式:[摄像机移动]+[建立场景]+[更多细节]复杂公式:[镜头语言]+[光影]+[主体(主体描述)]+[主体运动]+[场景(场景描述)]+[情绪/氛围/风格]无结构提示词:小男孩喝咖啡有结构的提示词:摄影机平移(镜头移动),一个小男孩坐在公园的长椅上(主体描述),手里拿着一杯热气腾腾的咖啡(主体动作)。他穿着一件蓝色的衬衫,看起来很愉快(主体细节描述),背景是绿树成荫的公园,阳光透过树叶洒在男孩身上(所处环境描述)。|类型|无结构提示词|有结构的提示词||-|-|-||prompt|小男孩喝咖啡|The camera pans to a young boy sitting on a park bench with a steaming cup of coffee in his hand.He looked pleasant in a blue shirt with a tree-lined park in the background,and the sun shining through the leaves on the boy.||视频效果|[a9c8b0e7-8384-5877-820f-02ad3dc3965d_0.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/GzLqbBlfwo2S7BxaXSOc2Q0znFd?allow_redirect=1)|[eea46e02-9b82-5aac-a23e-846227ca8da4_0.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Ei2qbEYPbocpy7xOXnEcqiCgnBg?allow_redirect=1)|

工具教程:清影

还有三个原则:强调关键信息:在提示的不同部分重复或强化关键词有助于提高输出的一致性。例如,摄像机以超高速镜头快速飞过场景。(其中的“超高速”、“快速”就是重复词)聚焦出现内容:尽量让你的提示集中在场景中应该出现的内容上。例如,你应该提示晴朗的天空,而不是没有云的天空。规避负面效果:为了进一步保障视频生成质量,可以在提示词中写明不需要的效果。例如:“不出现扭曲、变形、模糊的场景。”✍️怎么写一个提示词?首先,要明确场景中的人物和冲突是什么,这是推动整个场景发展的关键因素。例如,在一个追逐场景中,冲突可能是间谍试图逃脱追赶者的追捕。其次,是对场景进行详细的描述,包括地点、人物形象、任务动作等细节。使用生动的动词来营造动态和戏剧化的氛围,如“匆匆前行”、“缓缓旋转”等。例如:“在昏暗的街道上,雨滴如注,一个孤独的行人匆匆前行。”第三,加强镜头语言,镜头语言是通过摄影机的移动或焦距变化来表现画面内容的一种方式。常用的镜头运动包括推、拉、摇、移、升、降等。每种镜头运动都有其特定的作用和效果:推镜头:逐渐聚焦在某一角色的面部表情上,突出表现该角色的情感变化。拉镜头:逐渐远离主体,展示环境或背景,形成一种运动的主体不变、静止的背景变化的造型效果。摇镜头:跟随主体运动的表现方式,可以突出主体的同时,又可以交待主体运动方向、速度、体态及其与环境的关系。提示词要具体明确且符合物理规律,使用简单且清晰的语言。

PixelDance V1.4 提示词指南

图生视频的基础提示词结构为:主体+运动。不要对静止部分过多描述,只描述想动的部分。当主体具有一些突出特征时,可以加上突出特征来更好定位主体,比如老人,戴墨镜的女人等。需要基于输入的图片内容来写,需要明确写出主体以及想做的动作或者运镜,需注意提示词不要与图片内容/基础参数存在事实矛盾。比如图片中是一个男人,提示词写“一个女人在跳舞”;比如背景是草原,提示词写“男人在咖啡厅里唱歌”;比如选择了固定相机的基础参数,却在提示词里写了镜头环绕。|输入参数|生成视频||-|-||prompt:老人戴上眼镜<br>基础参数:相机固定,16:9,10s|[pd41.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/JrLbb5rRfooaesxslvxc4FS9nsb?allow_redirect=1)<br>单主体+单动作|

Others are asking
文生图如何提高字在图中的准确率
要提高文生图中字在图中的准确率,可以从以下几个方面入手: 1. 数据准备: 对于中文文字的生成,Kolors从两个方面准备数据。一是选择 50000 个最常用的汉字,机造生成了一个千万级的中文文字图文对数据集,但机造数据真实性不足。二是使用 OCR 和 MLLM 生成海报、场景文字等真实中文文字数据集,大概有百万量级。 Hugging 和英特尔发布了提高文生图模型空间一致性的方案,包括一个详细标注了空间关系的 600 万张图片的数据集,模型和数据集都会开源。 2. 模型能力: DALLE 3 和 SD3 已经有了很强的英文文字生成能力,但目前还未有模型具有中文文字的生成能力。中文文字的生成存在困难,一是中文汉字的集合大且纹理结构复杂,二是缺少中文文字的图文对数据。 作者观察到,使用机造数据结合高质量真实数据后,中文文字生成能力的真实性大大提升,而且即使是真实数据中不存在的汉字的真实性也得到了提升。 3. 训练方法: 在包含大量物体的图像上进行训练,可以显著提高图像的空间一致性。 此外,在写文生图的提示词时,通常的描述逻辑是这样的:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,能更精确地控制绘图。对于新手而言,还有一些功能型辅助网站来帮我们书写提示词,比如:http://www.atoolbox.net/ 、https://ai.dawnmark.cn/ 。还可以去 C 站(https://civitai.com/)里面抄作业。但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会截然不同。
2025-01-29
文生视频哪个网站最好,免费的
以下是一些免费的文生视频网站推荐: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。网址:https://pika.art/ https://discord.gg/pika 。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 4. ETNA(国内):https://etna.7volcanoes.com/ 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8~15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,支持中文,时空理解。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。 内容由 AI 大模型生成,请仔细甄别。
2025-01-26
现在有哪些开源的文生图大模型?
以下是一些开源的文生图大模型: Kolors: 2024 年 7 月 6 日开源,基于数十亿图文对进行训练,支持 256 的上下文 token 数,支持中英双语。技术细节参考 。 已支持 Diffusers,使用方式可参考 。 支持了 。 支持了 。 关于 Kolors 模型的教学视频: ,作者:BlueBomm 。 ,作者:AI 算法工程师 01 。 ,作者:峰上智行 。 ,作者:设计师学 Ai 。 Kolors 模型能力总结:改进全面,有更强的中文文本编码器、机造的高质量文本描述、人标的高质量图片、强大的中文渲染能力,以及巧妙的 noise schedule 解决高分辨率图加噪不彻底的问题。实测效果很不错,在看到 Kling 视频生成的强大表现,能体现快手的技术实力。
2025-01-24
如何让文生图,做到风格一致,人物一致,场景风格一致,
要让文生图在风格、人物和场景风格上保持一致,可以参考以下方法: 1. 图片生成工具:可使用 Midjourney 进行图片生成。 2. 画面电影感: 画幅:常用 21:9 的画幅比例,其会影响构图和光影。 Prompt 风格后缀:例如“________.Shot on Sony Venice 2,muted color tones,green and dark gray,awardwinning composition,cinematic scenear 21:9”。 专用摄影机:在 Prompt 里可添加电影专用摄影机,如 RED Helium 8K 等。 3. 人物一致性: 对于主角,可先跑一张定妆照。 利用 Midjourney 的新功能 Cref 保持发型、人脸、衣服,但对亚洲人脸尤其是老人的一致性效果较差,且对画面审美和构图有一定破坏性,能不用则不用,如只有背影时简单描述即可。 4. 场景一致性:目前尚无很好的解决办法,基本随缘。 此外,还可参考以下方式: 1. 生成人物图片:确定人物形象,如“a little girl wearing a yellow floral skirt+人物动作+风格词”,在 Midjourney 中生成满意的人物图像,为确保人物一致性,取“iw 2”。 2. 合成人物和场景:使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐,可将合成后的图作为垫图(“iw 2”),在 Midjourney 中重新生图。
2025-01-23
如何书写文生视频提示词达到连贯效果 并且根据自己的运镜指导运镜
以下是关于如何书写文生视频提示词达到连贯效果并且指导运镜的方法: 1. 在 PixelDance V1.4 中,支持在 prompt 里写入运镜控制,可用自然语言描述想要的镜头变化,例如“镜头环绕口红拍摄”“黑白风格,镜头环绕着戴墨镜的女人拍摄,从她侧面移动到正面,最后聚焦于女人的面部特写”“雨后模糊的玻璃逐渐聚焦,一个男人举着伞,带着一只金毛犬路过”等。 2. 对于更复杂的视频项目,在为 Generate video(beta)编写提示词时,可提供背景或背景故事,有助于生成连贯且引人入胜的序列。同时,Firefly 通常可以模拟真实世界的摄像机工作,可具体说明希望摄像机的角度或移动,如常见的相机方向有特写、广角镜头、平移/缩放/跟踪、从天而降、从下方拍摄等。 3. 在制作商业级的 AI 视频广告时,以汽车内饰片段为例,登录 runway 账户,在首页左侧点击“Text/Imagine to Video”,上传图片,更改大模型版本,在提示词方框中输入运镜方式,如“Roll Clockwise Shot slowly”(摄像机围绕垂直轴顺时针旋转)。不想动脑时可根据分镜表建议填写运镜方式,也可参照“运镜方式大全”。注意提示词不宜过多,可通过改变提示词、生成时长等多尝试几次。
2025-01-23
国内文生图模型
以下是关于国内文生图模型的相关信息: Recraft 模型:用 8 个月自研模型,包含处理数据的模型、标注工作、训练 OCR 模型、新构建的数据集等。Recraft 生成带有长文本图像的流程图解,但存在生成默认是外国面孔而非亚洲面孔且生成的亚洲人不太自然的情况,可能与数据集有关。只有少数公司真正从头训练模型,创建自己的模型困难且成本高,需要超强团队和资金。 模型能力方面: 文本编码器的能力是文生图模型语义理解能力的关键。一开始大部分模型使用 CLIP 作为文本编码器,但存在一些问题。新的模型纷纷优化文本编码器能力,如引入更大更强的 T5XXL 或结合多个特征,但开源模型在中文生图方面能力一般。 腾讯开源的 HunyuanDiT 是较可用的中文生图模型,但仍存在优化空间。 Kolors 是最近开源的给力文生图模型,改进全面,技术实力强。
2025-01-21
拆解agent
AI Agent 的拆解是指如果单次请求不能很好地遵循并完成所有事情,就将其拆分为一步一步的子任务。比如用户表达目标后,让大模型根据目标拆分出逐步的子任务,再通过工程方式循环请求子任务(可能会插入新任务),直至所有子任务完成。例如去年的 AutoGPT 就是这种方式(Planning and excute),但它只是学术界的探索,难以落地,除了一些 demo 产品,只在实在智能的 RPA 上见过。难以落地的原因有很多,如计划赶不上变化,提前规划的任务难以保证正确执行;大模型并非全知全能,规划的任务不一定正确;工程化执行时,循环的进入和退出时机也是问题。后来大家都在解决这些问题,思路和解法不同,比如 OpenAI 搞 Tools,FastGPT 搞可视化的 workflow 编排,大家逐渐意识到 workflow 是短期最优解,于是纷纷开始做。 判断自己的任务/Prompt 是否需要拆解为工作流,构建稳定可用的 AI Agent 是不断调试和迭代的过程,通常从性能最强的 LLM 着手,先用单条 Prompt 或 Prompt Chain 测试任务执行质量和稳定性,再根据实际情况和最终使用的 LLM 逐步拆解子任务。一般对于场景多样、结构复杂、输出格式要求严格的内容,基本可预见需要拆解为工作流。此外,鉴于 LLM 只能处理文本输入输出,涉及多媒体内容生成或从网络自主获取额外信息等能力时,必然需要通过工作流调用相应插件。只用一段 Prompt 的 Agent 也算 AI Agent。
2025-01-05
有没有能分析拆解腾讯视频的AI工具?
目前有使用 Gemini 1.5 Pro 来分析和拆解腾讯视频的工具。以下是一些相关信息: 大家可以放自己的案例,本文档可编辑。 郑跃葵:拿个库布里克的电影来分析,连大师手法都学会了。 大峰 AI 绘画:太酷啦又多了一个 AI 视频创作助手。 Jones:b 站大学复习有救了。 对!:拉片太方便了。 Shock:而且可以干掉人工标注了,安徽那边数据标注众包要失业了。 清慎:1. 影视二创长剪短,一键生成小帅、小美、大壮、丧彪的故事;2. 警察叔叔查监控,一句话找出监控中的可疑现象;3. 替代 Opus 等长剪短工具。 测试者阿强:好用,准确度很高,把前几天用 AI 做的功夫熊猫之离谱村版丢进去分析,效果很好。拆解作品。 测试者张余和 Ling、洋洋也有拆解结果,Gemini 1.5 Pro 给出了全文。 您可以尝试使用 Gemini 1.5 Pro 来满足您对腾讯视频的分析拆解需求。
2024-12-11
拆解 通往AGI之路 知识付费运营体系
通往 AGI 之路的知识付费运营体系可以从以下几个方面来拆解: 1. 课程特点: 【野菩萨的 AIGC 资深课】由工信部下属单位【人民邮电出版社】开设,是全网技术更新最快的课程之一。 课程内容涵盖 AI 绘画、视听语言和 ChatGPT 等多个体系的知识,能满足不同阶段学习者的需求。 2. 付费与开源的比较: 开源社区资源丰富,适合自律的自主学习者。 知识付费课程提供系统结构、专业指导、针对性计划和互动反馈,是高效的学习途径。 3. 社区需求: 新同学加入时,对适合小白新手入门的课程有需求,相比啃知识库的图文,更愿意接受老师手把手的教学。 4. 个人经历:创建者在希望快速入门 AI 绘画时,投入金钱学习了许多付费的 AI 课程,并最终选择了野菩萨的课程。 通往 AGI 之路本身不仅是开源的 AI 知识库,还是连接 AI 学习者、实践者、创新者的社区,具有以下特点: 1. 共同建设:由一群热爱 AI 的专家和爱好者共同贡献并整合各种 AI 资源。 2. 丰富内容:提供一系列开箱即用的工具,文生图、文生视频、文生语音等详尽的教程。 3. 紧跟前沿:追踪 AI 领域最新的进展,时刻更新。 4. 活动多样:包括东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等社区共创项目,以及 AIPO 活动、共学活动等。 5. 扶持与奖励:在小红书发布活动内容带特定标签有流量扶持,设有最佳创业奖和最佳投资奖等。
2024-11-25
如何拆解爆款短视频?
一个爆款短视频通常需要满足以下几点拆解要点: 1. 切片:短视频能够战胜长视频的关键在于对长视频进行切片处理。同理,要在短视频领域脱颖而出,也需不断切片,将一个短视频转化为多个短视频的集合,增加信息密度,大拆小并狂加料。 2. 通感:人的大脑分为直觉脑和理性脑,直觉脑通过五感工作。例如,头疗、水疗直播间靠声音让人感到舒服,美食直播间把美食切开喂到观众面前能让人不知不觉看很久。总之,不要让观众动脑子。 3. 反差:关于反差的详细内容可参考抖音航线里行舟大佬的相关文档。 此外,拆解爆款短视频还可以按照以下步骤和提问模板进行: 1. 确保 ChatGPT 理解您要拆解的角度。 2. 输入短视频脚本并让 ChatGPT 开始拆解。 3. 让 ChatGPT 提出内容的修改建议,并分点式给出答案。 4. 要求 ChatGPT 以特定风格去做修改。 具体的提问模板包括: 1. 建立自己的爆款库,并选择其中 1 个爆款内容。 2. 让 ChatGPT 理解您拆解的角度,例如:请您明确您理解以下名词的涵义(列举拆解角度):XXX、XXX、XXX;请您根据 XXXX(列举拆解角度),分析以下 XXXX(列举内容类型,例如文章/脚本)。 3. 让 ChatGPT 提出内容的修改建议,并分点式给出答案,例如:根据上述分析,请您判断这个 XXXX(列举内容类型,例如文章/脚本)的亮点和不足在哪里;请根据上述分析,进一步提出内容的修改建议,并分点式告诉我。 4. 要求 ChatGPT 以特定风格去做修改,例如:请根据上述内容的修改建议,对这个 XXXX(列举内容类型,如脚本/文章)进行修改,并输出 XXXX(列举内容类型,如脚本/文章)的文案;请将这个 XXXX(列举内容类型,如脚本/文章)调整成 XXX 风格(适用于 XX 平台,或与某作者相近风格,例如用王家卫风格、金庸风格)。
2024-09-28
如何用AI拆解小红书账号
以下是用 AI 拆解小红书账号的方法: 1. 参与“第 11 期:Video Battle AI 视频挑战 Little Boxes 盒子”的小红书话题活动。 2. 选题方面,可以参考以下内容: AI 视频领域国内外近期热点话题事件,包括技术类和产品类。 AI 视频创作背后的技术工作流拆解,可运用 WaytoAGI 知识库内容进行二创转化,但要注明原作者。 参加过 VB 的创作者可以讲述自己在 VB 过程中遇到的难点,以及如何解决和运用 AI 技术把创意落地。 3. 话题要求: 小红书内容文案需附上【欢迎参加@野菩萨@通往 AGI 之路联合举办的第 11 期 VideoBattle AI 视频挑战】字样,位置不限。 需带上三个标签:VB 工作流拆解 野神殿 通往 AGI 之路(或者waytoagi)。 满足上述要求的内容,从明天起会集中做 3 5 天的话题曝光。
2024-09-18
coze案例拆解
以下是关于 Coze 案例拆解的相关内容: 案例精选合集:。拆解列表在本页面子目录,如遇无法显示列表控件,请直接进入子目录。 一泽 Eze 的相关内容:万字实践教程,全面入门 Coze 工作流|用 Coze 打造 AI 精读专家智能体,复刻 10 万粉公众号的创作生产力。 阅读指南:长文预警,请视情况收藏保存。 核心看点:通过实际案例逐步演示,用 Coze 工作流构建一个能够稳定按照模板要求,生成结构化内容的 AI Agent;开源 AI Agent 的设计到落地的全过程思路;10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群:任何玩过 AI 对话产品的一般用户(如果没用过,可以先找个国内大模型耍耍);希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。
2024-09-03
非结构化数据治理
以下是关于非结构化数据治理的相关信息: 在 AI 新产品方面: JamGPT AI Debug 小助手:https://jam.dev/jamgpt ChatGPT2D 用于生成二维知识图谱:https://www.superusapp.com/chatgpt2d/ Motörhead by metal 是用于 LLM 的开源内存和信息检索服务器:https://github.com/getmetal/motorhead 在网页抓取工具方面: Hexomatic:https://hexomatic.com/ WebscrapeAI:https://webscrapeai.com/ Kadoa:https://www.kadoa.com/ 在个人数据处理方面: Bloks 可自动处理个人笔记、任务列表和会议记录:https://www.bloks.app/ Lettria 用于处理个人文本材料:https://www.lettria.com/ Quadratic 可使用 AI、Python、SQL 和公式分析个人数据:https://www.quadratichq.com/?ref=producthunt 在向量数据库方面,以电影网站为例,传统搜索在处理语义搜索和对非结构化数据(如图像、音频等)的相似性搜索时存在问题,比如用户输入“电影像《星球大战》一样令人兴奋”或上传一张电影《银翼杀手》的海报,传统关系数据库或 Excel 难以理解和返回相关搜索结果。 在金融行业,非结构化数据主要涉及报告(如年度报告、季度报告等公司财务报告)、公告(如董事会公告、监事会公告、股东大会公告等)、上市资料(如招股说明书等公司上市相关文件)。
2025-01-24
非结构化数据
非结构化数据是指缺乏预定义格式的数据,如文本、图像和音频等。为在人工智能和机器学习应用中利用这些数据,需使用嵌入技术将其转换为数字表示。嵌入就像给每个项目赋予独特的代码以捕捉其含义或本质,通常通过特殊神经网络实现,例如单词嵌入将单词转换为向量,使含义相似的单词在向量空间中更接近,从而让算法了解项目间的关系和相似性,将非数字数据转换成机器学习模型可处理的形式,以辨别数据中的模式和关系。 在金融行业中,非结构化数据主要涉及报告(年度报告、季度报告等公司财务报告)、公告(董事会公告、监事会公告、股东大会公告等)、上市资料(如招股说明书等公司上市相关文件)。 向量数据库处理的是称为向量的复杂非结构化数据,其存储过程为:若为文本,通过模型转换成向量对象后存入数据库,再进行使用。传统数据库以表格形式存储简单数据,而向量数据库使用独特方法搜索,如近似近邻(ANN)搜索,包括散列搜索和基于图的搜索等方法,且使用特定的相似性度量来寻找最接近的匹配。要理解向量数据库的工作原理及与传统关系数据库的不同,需先理解嵌入的概念。
2025-01-24
请给我一份李继刚的结构化的prompt方法论
李继刚的结构化的 prompt 方法论如下: 如何写好 Prompt:结构化 结构化:对信息进行组织,使其遵循特定的模式和规则,从而方便有效理解信息。 语法:支持 Markdown 语法、YAML 语法,甚至纯文本手动敲空格和回车都可以。 结构:结构中的信息可根据自己需要进行增减,常用模块包括: Role:<name>,指定角色会让 GPT 聚焦在对应领域进行信息输出。 Profile author/version/description:Credit 和迭代版本记录。 Goals:一句话描述 Prompt 目标,让 GPT Attention 聚焦起来。 Constrains:描述限制条件,帮 GPT 进行剪枝,减少不必要分支的计算。 Skills:描述技能项,强化对应领域的信息权重。 Workflow:重点中的重点,希望 Prompt 按什么方式来对话和输出。 Initialization:冷启动时的对白,强调需注意重点。 示例 贡献者:李继刚,Sailor,田彬玏,Kyle😜,小七姐等群友。 李继刚的。 每个角色都有版本迭代,标注版本号,争取每个都更新到最新的版本。 李继刚写了上百个这种 Prompt,有具体场景需求可评论留言,作者可帮忙写定制的,也可自己用这种结构化的方式写。 使用方法:开一个 new chat,点代码块右上角的复制,发送到 chat 聊天框即可,里面的描述可按自己需求修改。 思路来源:云中江树的框架: 方法论总结: 建议用文心一言/讯飞星火等国内大模型试试,有这些 prompt 的加持,效果不错。
2024-12-17
常用的结构化提示词框架有哪些?
以下是一些常用的结构化提示词框架: 1. 基础的结构化编写 Prompt 框架: Role: Profile: author:作者 version:版本 language:中文 description: Goals: 1. 2. Constrains: Skills: Workflows: 1. 2. 2. CRISPE 框架(Capacity and Role,Insight,Statement,Personality,Experiment) 3. BROKE 框架(Background,Role,Objectives,Key Results,Evolve) 4. ICIO 框架: Instruction(指令):明确定义 AI 需要执行的任务,遵循简洁明了、具体详细、行动导向、单一任务等原则。 Context(背景信息):提供任务的相关背景,包括任务目的、目标受众、相关背景、限制条件、角色扮演等。 Input Data(输入数据):为 AI 提供执行任务所需的具体信息或数据。 Output Indicator(输出引导):指导 AI 如何构建和呈现输出结果,包括格式要求、语气和风格、长度限制、结构指引、特殊要求、评估标准等。
2024-11-14
结构化提示词
结构化提示词是一种像写文章一样编写提示词的方法。其思想较为普遍,日常写作的文章和书籍都常使用标题、子标题、段落、句子等语法结构。 在文生图方面,调整好参数生成图片后,若质感欠佳,可添加标准化提示词,如“,绘图,画笔”等,让画面更趋近于固定标准。 对于新手,有一套极简基础的结构化编写 Prompt 框架,例如: Role: Profile: author:作者 version:版本 language:中文 description: Goals: 1. 2. Constrains: Skills: Workflows: 1. 2. 在提高模型响应精确度方面,改进提示词格式很重要。如在问答和文本分类中,提示词可以通过指令、上下文、输入和输出指示来改进响应结果。越明确的指示,响应越好。包含相关语境和其他要素,提供更多信息和具体指令,能使响应更符合需求。
2024-11-11
GPTs 结构化提示词模板
以下是为您整理的关于 GPTs 结构化提示词模板的相关内容: 简单的提示词模板:最终目标是把需求说清楚。例如,“Act like a ”。 GPTs 教程及案例拆解 开源:一些 GPTs 的 prompt 中,如超强 LOGO 生成器,其使用方法为设计一个 logo 生成工具,允许用户上传多张 logo 图片作为参考,通过提示询问用户是否使用这些图片来创建新的 logo 设计,可自定义提示词风格和设定图片参考权重,利用 GPT4 Vision 的识图能力生成新 logo 设计,若用户不满意则重新生成,创作完后提示用户是否满意,满意则提供转 LOGO 矢量图的链接。 GPTs 教程及案例拆解 精选:GPTs 项目包括 Reviewer2Pal,可帮用户将直白的英文论文回应转换为专业回复;方法论专家 Methodology Expert,辅助用户使用方法论解决相关问题;灵感专家 Brainstorming Expert,辅助用户进行灵感思考和提出发散性角度;自动结构化框架,由小七姐编写,欢迎关注其公众号“AI 中文百科”领取更多好玩的 GPT 工具。
2024-11-07
推荐关于AI的视频
以下为为您推荐的关于 AI 的视频: 软件教程: 入门学习:
2025-01-29
推荐关于AI的视频学习课件
以下为您推荐关于 AI 的视频学习课件: 1. 【野菩萨】课程: 预习周课程:包括 AI 绘画电脑配置要求、高效 AIGC 创意者的数字人工具包、SD 插件安装方法、画静为动的 AIGC 视频制作讲解等。 基础操作课:涵盖 AI 绘画通识课、AI 摄影虚拟的真实、AI 电影 穿越的大门等内容。 核心范式课程:涉及词汇的纸牌屋、核心范式应用、控制随机性等方面。 SD WebUi 体系课程:包括 SD 基础部署、SD 文生图、图生图、局部重绘等。 ChatGPT 体系课程:有 ChatGPT 基础、核心 文风、格式、思维模型等内容。 ComfyUI 与 AI 动画课程:包含部署和基本概念、基础工作流搭建、动画工作流搭建等。 应对 SORA 的视听语言课程:涉及通识 欢迎参加电影的葬礼、影像赏析、基础戏剧影视文学等。 免费课程机会:如果想要免费获得这门课程,可以来参与 video battle,获胜者有机会获得课程奖励,包括冠军奖励 4980 课程一份、亚军奖励 3980 课程一份、季军奖励 1980 课程一份、入围奖励 598 野神殿门票一张。扫码添加菩萨老师助理,了解更多课程信息。 2. B 站 up 主 Nally 的课程:免费且每节 15 分钟,内容很棒。 3. 新手学习 AI 推荐: 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念。浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,您将找到一系列为初学者设计的课程。通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),可以根据自己的兴趣选择特定的模块进行深入学习。建议掌握提示词的技巧。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。在知识库提供了很多大家实践后的作品、文章分享。 体验 AI 产品:尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
2025-01-29
视频换脸
以下是关于视频换脸的相关信息: 视频换脸可以自动识别视频中的人脸,并将其替换为选择的脸部,实现在视频中快速、精确地替换人物的脸部。 操作指引: 1. 上传原始视频。 2. 上传换脸图片。 3. 点击生成。 相关工具及链接: 1. 【TecCreative】: 图片大小上限 5M,支持 JPG、PNG 格式。 2. Swapface(有免费额度): https://swapface.org//home 需要下载电脑客户端使用,没有在线版,可以通过邀请好友、点评软件获取积分。 视频换脸是可以上传视频或者 gif 图,换脸可以识别图片、视频里的多张脸进行替换。 效果预览:左边原视频,右边换脸后效果。
2025-01-28
我想用ai辅助视频创作
如果您想用 AI 辅助视频创作,可以按照以下流程进行: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 现阶段,AI 视频产品的主要受众群体包括: 1. 专业创作者(艺术家、影视人等):AI 生成能够为作品赋予独特风格和想象力,为创作者提供灵感,配合高超的剪辑技巧和叙事能力,便可以制作出超乎想象的效果。低成本动捕更是能够大幅降低后期制作的门槛和成本,自动识别背景生成绿幕、视频主体跟随运动等能够辅助视频编辑,为后期制作增加更多空间。目前该应用主要集中在音乐 MV、短篇电影、动漫等方向。一些 AI 视频平台也积极寻求创意合作,为创作者提供免费支持。 2. 自媒体、非专业创作者:这部分人群通常有着非常具体且明确的视频剪辑痛点。比如科技、财经、资讯类重脚本内容的视频在制作时需花费大量时间寻找视频素材、还需注意视频版权问题。一些产品(Invideo AI、Pictory)已经在发力脚本生成分镜、视频,帮助创作者降低视频素材制作门槛。Gamma AI 已经实现了文章高效转 PPT 的能力,若能结合 Synthesia、HeyGen AI、DID 等产品的 Avatar、语音生成能力也可快速转化为视频内容。不同平台适合不同内容形式,创作者想要将同一个素材在不同平台分发就意味着制作成本的升高。而 OpusClip 提供的长视频转短视频致力于解决这一痛点。 3. 企业客户:对于没有足够视频制作资金的小企业、非盈利机构来说,AI 视频生成可以为其大幅缩减成本。 在视频制作中,新技术与流程包括: 1. Sono 产品更新:Sono 产品今年下半年更新到 V4 版本,具有写歌、生成配乐等功能,V4 版本可能需会员使用。 2. 配音工具介绍:外文场景配音推荐 So,yeah,11,11,11,国内配音软件常用剪映,其声音克隆方便,音色选择多。 3. 传统线性流程:先写剧本再拆分镜,确定角色和场景,准备素材后剪辑成片,特点是可控性高,适合团队协作,以之前的片子《梦镜》为例,用飞书多维表格做分镜管理。 4. 基于 AI 的个人流程:自由度高,先有想法就做画面,根据 AI 生成结果进一步演化角色和内容。 AI 在视频制作中的应用与提升方法包括: 1. AI 制作视频实例:以一个片子为例,讲述基于 AI 特性尝试制作短片的过程,包括文字融合画面效果、错误修改与调整方式等。 2. AI 助力视频创作:AI 能与创作者不断交流共创,启发创作者调整分镜、风格等,最终串联成故事,比传统方式更灵活自由。 对于新手入门,建议通过与他人合作了解视频制作环节,有经验者应尝试自己制作,利用 AI 反馈可高效完成片子。提升制作能力的方式总结为多看优秀作品以获取启发,多在不同平台和工具上尝试以了解其特点,多做输出和积累以形成自己的资源。
2025-01-27
为文字配视频
以下是关于为文字配视频的相关内容: 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 实战: 1. 准备内容:先准备一段视频中播放的内容文字,可以是产品介绍、课程讲解、游戏攻略等任何您希望推广让大家了解的文字,也可以利用 AI 生成这段文字。 2. 制作视频:使用剪映 App 对视频进行简单处理。电脑端打开剪映 App,点击“开始创作”,进入创作页面,选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号,为视频添加一个文字内容的轨道,添加完成后在界面右侧将准备好的文字内容替换默认文本内容。 文字生成视频的 AI 产品: 1. Pika:擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看: 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-01-27