直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

图生视频的提示词怎么写

回答

图生视频的提示词写作要点如下:

  • 基础提示词结构为主体+运动。只描述想动的部分,避免对静止部分过多描述。当主体有突出特征时,可加上突出特征来更好定位主体,比如老人、戴墨镜的女人等。
  • 需基于输入的图片内容来写,明确写出主体以及想做的动作或运镜,提示词不要与图片内容/基础参数存在事实矛盾。
  • 对于 PixelDance V1.4,支持时序性的多个连续动作以及多个主体的不同动作,可以尝试写主体+动作 1+动作 2,主体 1+动作 1+主体 2+动作 2 等。
  • 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。
  • 提示词要简单清晰,可选择不写 prompt,直接让模型自己操控图片动起来;也可以明确想动起来的主体,并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解图片,推荐将照片发送到清言对话框进行识图,明确主体的描述。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

PixelDance V1.4 提示词指南

图生视频的基础提示词结构为:主体+运动。不要对静止部分过多描述,只描述想动的部分。当主体具有一些突出特征时,可以加上突出特征来更好定位主体,比如老人,戴墨镜的女人等。需要基于输入的图片内容来写,需要明确写出主体以及想做的动作或者运镜,需注意提示词不要与图片内容/基础参数存在事实矛盾。比如图片中是一个男人,提示词写“一个女人在跳舞”;比如背景是草原,提示词写“男人在咖啡厅里唱歌”;比如选择了固定相机的基础参数,却在提示词里写了镜头环绕。|输入参数|生成视频||-|-||prompt:老人戴上眼镜<br>基础参数:相机固定,16:9,10s|[pd41.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/JrLbb5rRfooaesxslvxc4FS9nsb?allow_redirect=1)<br>单主体+单动作|

工具教程:清影

输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。[heading3]👍两个小技巧[content]⚠️技巧1:选用尽可能清晰的图片,上传图片比例最好为3:2(横版),清影支持上传png和jpeg图像如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。⚠️技巧2:提示词要【简单清晰】1️⃣可以选择不写prompt,直接让模型自己操控图片动起来。2️⃣明确你想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现AI狂乱景象)如果你不明确大模型如何理解你的图片,推荐将照片发送到清言对话框进行识图,明确你的【主体】该如何描述。

PixelDance V1.4 提示词指南

PixelDance V1.4支持时序性的多个连续动作,以及多个主体的不同动作可以尝试写:主体+动作1+动作2主体1+动作1+主体2+动作2······|输入参数|生成视频||-|-||prompt:老人笑着笑着就哭了<br>基础参数:相机不固定,4:3,5s|[老人笑着笑着就哭了.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Lq2ebbCL7ovf3zxbsfkcdAxDnih?allow_redirect=1)<br>单主体+连续动作||prompt:一个男人拿起咖啡喝了一口,一个美丽的女人走到了他身后。<br>基础参数:相机固定,16:9,10s|[pd4.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/UfEmbrUtpoZ9Ewx64ncc3Lr7ntg?allow_redirect=1)<br>多主体+不同动作||prompt:一个男人走进画面,女人转头看着他,他们互相拥抱,背景周围的人在走动。<br>基础参数:相机固定,16:9,10s|[pd8.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/DWoqbMiUDoaLM3xNAAxcGoOunzb?allow_redirect=1)<br>多主体+不同的连续动作|

其他人在问
在国内可以免费用的图生视频的ai工具
以下是在国内可以免费用的图生视频的 AI 工具: 1. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频,支持中文,时空理解。 3. Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以,文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持 16:9、9:16、1:1、3:4、4:3 尺寸,图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同,默认生成 3s 的视频。 4. 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸,图生视频除了不可运镜控制以外,其他跟文生视频基本相同,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品推荐: 1. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-20
图生视频的ai工具
以下是一些图生视频的 AI 工具: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上直接生成视频,由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 根据视频脚本生成短视频的 AI 工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频所需要素并生成对应素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 3. Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划内容。 5. Runway:AI 视频创作工具,能将文本转化为风格化的视频内容。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务。 关于清影的图生视频: 输入一张图片加相应提示词,清影大模型会根据提示将图片转变为视频画面。也可以只输入一张图片,清影大模型将自行发挥想象力把图片扩展为有故事的视频。有两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。若原图不够清晰,可采用分辨率提升工具。 2. 提示词要简单清晰。可以选择不写 prompt,直接让模型操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。若不明确大模型如何理解图片,推荐将照片发送到清言对话框进行识图,明确主体的描述。
2024-12-20
目前我已经有了一个可以文生视频或者图生视频的模型但是只能6秒,我要如何利用agent自动流实现这个模型可以生成更长,更可靠质量的视频呢
要利用 agent 自动流实现生成更长、更可靠质量的视频,您可以参考以下几种模型和方法: 1. PixVerse V2 模型: 8 秒的视频生成需要花费 30 Credits,5 秒的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。 目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. Meta Movie Gen 模型: Movie Gen 由视频生成和音频生成两个模型组成。 Movie Gen Video:30B 参数 Transformer 模型,可以从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。对于个性化视频,它在保持角色身份一致性和运动自然性方面取得 SOTA 性能。 Movie Gen Audio:13B 参数 Transformer 模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。 Movie Gen Video 通过预训练微调范式完成,在骨干网络架构上,它沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频文本和图像文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。 3. Sora 模型: 文生视频,图生视频,视频生视频,支持多种视频定制选项,如分辨率(从 480p 到 1080p)、视频长度(从 5 秒到更长时间)和视频风格。用户可以浏览社区共享的视频,获取灵感和学习技巧(直接抄别人 prompt)。 故事板:允许用户通过时间线指导视频中的多个动作,创建更加复杂的视频序列。 混音和编辑:提供视频混音功能,允许用户将视频转换成新的风格。支持视频的延伸和剪辑,以及创建循环视频。 高级功能:包括混合功能,可以将两个视频场景合并成一个新的场景。 对于已经拥有 OpenAI Plus 或 Pro 账户的用户,Sora 的使用是包含在现有订阅中的,无需额外支付费用。OpenAI Plus 订阅每月 50 次视频生成次数;OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可以根据需要选择更高分辨率的视频生成,但这可能会减少每月的使用次数。Sora 的发布初期,对于某些地区(如欧洲和英国)可能会有延迟。
2024-12-19
nova有个图生视频的功能,但是只能生成6秒钟,我要如何组合服务去实现可以文生长视频并且也可以图生长视频呢
以下是一些实现文生长视频和图生长视频的方法: 1. 使用 PixVerse V2 模型: 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. 利用 runway: 视频的大部分片段用 runway(https://app.runwayml.com/)制作,少数的片段用的是即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。 以汽车内饰这一片段为例,登录 runway 账户后,在首页的左侧点击“Text/Imagine to Video”,中文即是“文生视频/图生视频”。点击 2 处将汽车内饰的图片上传到 runway 中。其中 1 处可以更改生成图片所用到的大模型版本,数字越大代表模型越强。目前只有 Gen2 每天有免费额度。3 处用于输入提示词。4 处可以修改生成的视频时长为 5s 或 10s,时长越长,生成的效果可能越不稳定。5 处可以看到生成的结果。提示词方框中输入的运镜方式“Roll Clockwise Shot slowly”是,即摄像机围绕垂直轴顺时针旋转,常用于创造动态的、有时令人眩晕的视觉效果。不想动脑的话,每个片段的运镜方式根据分镜表的建议来即可。运镜提示词该如何填写呢?可以参照:。runway 对于这些专有的运镜方式理解的很好。其他的提示词可以不填,先看看效果,如果效果不好,再补充简短的提示词重新生成视频。很多时候提示词过多,生成的视频就很怪异,像吃了毒蘑菇后看到的幻觉一样。改变提示词,改变生成时长,多抽卡几次,毕竟 runway 会员可以无限抽卡。 3. 海外产品 viva: viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频。
2024-12-19
多图生成视频方案
以下是关于多图生成视频的几种方案: 1. 方法一: 利用 MJ 画图,先画出来一张想要的底图。 使用 InsightFaceSwap 这个插件来换脸或者让脸部更像,但因该插件对多人脸部同时处理效果不好,所以先需要进行图片的分割裁剪,分别利用插件处理后,再把图片重新缝合。 最后利用可灵或者其他软件来让图片动起来。 2. 方法二: 直接在网上寻找能够融合两张照片的软件或者项目,直接对图片进行融合。如果没有,就纯 P 图,然后利用图生视频的项目完成内容。 3. 利用现有的知识和工具,如具备 DiT(能够进行图片生成),把视频生成看作独立的图片生成,使用 DiT 生成多帧图片然后串起来就是视频,但这样可能会导致生成的多帧图像不连贯。 4. 使用视频工具 VIGGLE: Mix 模式:先上传一个视频和一张角色图像,Viggle 会自动将视频的动态赋予给这个角色,形成一段新视频,能模拟出角色的 3D 状态,准确还原复杂动作。 Multi 模式:通过视频的动作,将上传的多个角色进行识别并赋予动作,形成一段新视频。 Move 模式:将视频的动作直接映射在图片人物身上,实现“让静态图动起来”。 您可以根据实际需求和操作难度选择适合您的方案。
2024-12-19
免费的图生视频软件有推荐吗
以下是为您推荐的免费图生视频软件: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果您熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Kaiber:这是一款视频转视频 AI,能够将原视频转换成各种风格的视频。 此外,您还可以通过以下途径获取更多相关信息: 1. 更多的文生视频的网站可以查看: 2. Vidu 全球上线,Web 端访问:https://www.vidu.studio/ ,具有极速生成、动漫风格、角色可控、精准理解、大片质感等特点。 关于 SVD 图生视频模型的下载和使用: 1. 下载模型:最新模型在前面,建议除开第一个模型都下载。 https://huggingface.co/stabilityai/sv3d/ 【Stable Video 3D模型,最新模型,生成图片 3D 旋转视频,暂时没测试是否能支持】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vidxt11/ 【SVD 1.1 XT 版,支持生成 1024x576 分辨率每秒 14 帧视频,优化了文件大小,提高生成效率】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vidxt 【SVD 1.0 XT 版,支持生成 1024x576 分辨率生成每秒 25 帧视频】 https://huggingface.co/stabilityai/stablevideodiffusionimg2vid 【SVD1.0 版,支持生成生成 1024x576 分辨率每秒 14 帧视频】 2. 放置模型:下载好的 SVD 图生视频模型放置在指定文件夹下。 3. 使用方法:Controlnet 中上传原图选择深度,预处理器可选择不同算法,右侧深度模型记得选择深度模型,获得需要的深度图。结合大模型和提示词,利用文生图就可以生成图片。然后上传制作好的图片,选择 SVD 图生视频大模型,设置参数,生成视频。 内容由 AI 大模型生成,请仔细甄别。
2024-12-19
可灵和即梦哪个生成视频的能力更强
目前难以直接明确可灵和即梦哪个生成视频的能力更强。 Google DeepMind 和 OpenAI 展示了强大的文本到视频扩散模型预览,但访问受限且技术细节披露不多。Meta 更进一步,将音频加入其 Movie Gen 模型。 在 2024 年,国内涌现出一系列 AI 生成视频工具,如可灵、即梦、智谱清影等,生成结果甚至远超国外。 即梦是剪映旗下的,生成 3 秒视频,动作幅度有很大升级,有最新的 S 模型和 P 模型。可灵支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。 在图生视频方面,市面上主要的工具包括可灵、即梦、Luma,核心方法是穷举和不断调整 prompt 来设计人物动作、辅助镜头运镜等。
2024-12-21
文字生成视频有哪些好的应用
以下是一些文字生成视频的好的应用: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要注意的是,Runway 是收费的。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 6. Genmo:相较于 Pika 和 Runway,生成视频的清晰度大幅提高,人像的稳定性和美观度强很多,支持镜头控制且控制粒度更细,但还没开放图片生成视频,只能用文字提示词。 7. VIGGLE:能直接通过文字描述让任何静态图动起来,能做各种动作,还能直接文字生成视频,进行各种角色混合和动作替换。其核心技术基于 JST1 模型,该模型是首个具有实际物理理解能力的视频3D 基础模型,能够根据用户需求,让任何角色按照指定方式进行运动。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。内容由 AI 大模型生成,请仔细甄别。
2024-12-21
监控视频算法
很抱歉,目前知识库中没有关于监控视频算法的相关内容。但一般来说,监控视频算法涵盖了目标检测、跟踪、行为分析等多个方面。常见的算法包括基于深度学习的目标检测算法,如 YOLO 和 SSD 等,用于识别视频中的人物、车辆等目标;还有基于光流的目标跟踪算法,用于持续跟踪目标的运动轨迹;在行为分析方面,会运用模式识别和机器学习算法来判断异常行为等。如果您能提供更具体的需求,我可以为您提供更有针对性的信息。
2024-12-21
🚀接着上期SOP+AI:打造职场高效能人士的秘密武器的分享,今天继续聊聊SOP+AI的应用,🎯今天的主题是“怎样利用AI节约10倍内容创作时间?”📚最近跟团队有开始运营小红书账号,就想着先给自己打造点顺手的工具,于是乎「小红书文案专家」就出生啦~🎉[heading1]一、先介绍下我们小Bot[content]🛺BOT名称:小红书文案专家功能价值:见过多个爆款文案长啥样,只需输入一个网页链接或视频链接,就能生成对应的小红书文案,可以辅助创作者生成可以一键复制发布的初稿,提供创意和内容,1
以下是关于“SOP+AI”的相关内容: 怎样利用 AI 节约 10 倍内容创作时间? 最近团队开始运营小红书账号,于是打造了“小红书文案专家”。 BOT 名称:小红书文案专家 功能价值:见过多个爆款文案,输入网页或视频链接就能生成对应的小红书文案,辅助创作者生成可一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人写初稿并生成配图。 实现思路:为自己和团队设计工作流,让 AI 按运营思路和流程工作。 一期产品功能: 1. 提取任何链接中的标题和内容。 2. 按小红书平台文案风格重新整理内容。 3. 加入 emoji 表情包,使文案更有活力。 4. 为文案配图片。 二期计划功能:持续优化升级,增加全网搜索热点功能,提炼热点新闻或事件关键信息,结合用户想要生成的内容方向输出文案和配图。 SOP+AI:打造职场高效能人士的秘密武器 案例分享:X 公司客服团队引入 SOP 和 AI 助手后,工作效率显著提升。引入 SOP 前,客服工作流程混乱,效率低下,客户满意度不高。引入 SOP 标准化操作后,效率提高。进一步引入 AI 助手,自动回复常见问题、处理简单请求,减少客服工作量,还能及时发现问题帮助优化。结果客服团队工作效率提升 30%以上,客户满意度显著提高。SOP 能提升效率、减少失误、促进协作,借助 AI 助手,SOP 制定和优化更高效智能。
2024-12-20
视频生成哪一个ai最强
目前在视频生成领域,以下几个 AI 表现较为突出: Luma AI: Dream Machine 功能包括 txt2vid 文生视频和 img2vid 图生视频,还支持 Extend 延长 4s、循环动画、首尾帧动画能力。 8 月底最新发布的 Dream Machine 1.5 增强了提示词理解能力和视频生成能力,对视频内文字的表现很强。 在 img2vid 图生视频方面,生成效果在多方面远超其他产品,如生成时长较长(5s)、24 帧/s 非常丝滑、运动幅度大且能产生相机的多角度位移、提示词中可增加无人机控制的视角变化、运动过程中一致性保持较好、分辨率高且有效改善了运动幅度大带来的模糊感。 Runway:推出了实力强劲的 Gen3 模型。 此外,以下是其他视频生成的 Top10 产品及相关数据: |排行|产品名|分类|4 月访问量(万 Visit)|相对 3 月变化| |||||| |1|InVideo|其他视频生成|736|0.118| |2|Fliki|其他视频生成|237|0.165| |3|Animaker ai|其他视频生成|207|0.076| |4|Pictory|其他视频生成|122|0.17| |5|Steve AI|其他视频生成|76|0.119| |6|decohere|其他视频生成|57.5|0.017| |7|MagicHour|其他视频生成|53.7|0.071| |8|Lumen5|其他视频生成|51|0.149| |9|democreator|其他视频生成|41.9|0.136| |10|腾讯智影|其他视频生成|35.4|0.131|
2024-12-20
如何写好提示词
以下是关于如何写好提示词的一些要点: 1. 明确任务:清晰地定义任务,如写故事时包含故事背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在提示词中明确指出。 5. 使用示例:如有特定期望结果,提供示例帮助模型理解需求。 6. 保持简洁:提示词简洁明了,避免过多信息导致模型困惑。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整提示词,可能需多次迭代。 此外,还需注意以下几点: 提示词内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,如“一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量”。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,输入不想生成的内容,如“不好的质量、低像素、模糊、水印”。 利用“加权重”功能:在功能框增加提示词并调节权重,数值越大越优先,也可编辑已有提示词权重。 善用辅助功能:如翻译功能可一键将提示词翻译成英文,还有删除所有提示词、会员加速等功能。 同时要记住,提示词应清晰明确,避免模糊不清的指令,提供足够的背景信息和清楚的需求描述,以确保模型给出准确结果。
2024-12-21
如何写提示词
以下是关于如何写提示词的一些建议: 1. 明确任务:清晰地定义任务,比如写故事时包含故事背景、角色和主要情节。 2. 提供上下文:若任务需要特定背景知识,要提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,应在提示词中明确指出。 5. 使用示例:如有期望结果,可提供示例帮助 AI 理解需求。 6. 保持简洁:避免过多信息导致 AI 模型困惑。 7. 使用关键词和标签:有助于 AI 模型理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整提示词。 对于特定的设计工具,如星流一站式 AI 设计工具: 1. 输入语言方面,通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(如一个长头发的金发女孩),基础模型 1.5 使用单个词组(如女孩、金发、长头发),且支持中英文输入。 2. 写好提示词的方法包括: 预设词组:小白用户可点击提示词上方官方预设词组进行生图。 内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,例如一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,帮助 AI 理解不想生成的内容,如不好的质量、低像素、模糊、水印。 利用“加权重”功能:在功能框增加提示词并进行加权重调节,权重数值越大越优先,也可对已有的提示词权重进行编辑。 辅助功能:如翻译功能可一键将提示词翻译成英文,还有删除所有提示词、会员加速等功能。 此外,还需注意提示词应清晰明确,避免模糊不清的指令,提供足够的背景信息和清楚的需求描述,以确保模型给出准确结果。
2024-12-21
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
有哪些好的提示词网站
以下是一些好的提示词网站: 文本类 Prompt 网站: Learning Prompt:授人以渔,有非常详尽的 Prompt 学习资源,包括 ChatGPT 和 MidJourney。网址: FlowGPT:国外最大的 prompt 站,内容全面且更新快。网址: LangChain Hub:LangChain 推出的提示词管理工具。网址: 微软 Prompt Flow:微软发布的开源 LLM 开发工具集,简化了基于 LLM 的人工智能应用程序的开发周期。网址: PromptPort(支持中文):AI Prompt 百科辞典,聚合了市场上大部分优质的 prompt 词库。网址: PromptKnit:The best playground for prompt designers。网址: ChatGPT Shortcut:提供了非常多使用模板,简单修改即可指定输出。网址: ClickPrompt:轻松查看、分享和一键运行模型,创建 Prompt 并与其他人分享。网址: Prompt Extend:让 AI 帮你自动拓展 Prompt。网址: 图像类 Prompt 网站: MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库。网址: MidJourney Prompt Tool:类型多样的 prompt 书写工具,点击按钮就能生成提示词修饰部分。网址: OPS 可视化提示词:有 Mid Journey 的图片风格、镜头等写好的词典库,方便快速可视化生成自己的绘画提示词。网址: AIart 魔法生成器:中文版的艺术作品 Prompt 生成器。网址: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器。网址: Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT&Midjourney。网址: OpenArt:AI 人工智能图像生成器。网址: img2prompt:根据图片提取 Prompt。网址: MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用。网址: PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板。网址: AiTuts Prompt:精心策划的高质量 Midjourney 提示数据库,提供了广泛的不同风格。网址: 其他图像类 Prompt 网站: NovelAI tag 生成器:设计类 Prompt 提词生成器。网址: 魔咒百科词典:魔法导论必备工具,简单易用的 AI 绘画 tag 生成器。网址: KREA:设计 AI 的 Prompt 集合站,create better prompts。网址: Public Prompts:免费的 prompt 合集,收集高质量的提示词。网址: AcceleratorI Prompt:AI 词汇加速器,加速 Prompt 书写,通过按钮帮助优化和填充提示词。网址:
2024-12-20
Ai视频镜头提示词,及案例
以下是一些 AI 视频镜头的提示词及案例: 一、视频镜头 1. 浅焦镜头(Shallow focus shot) 提示词:一个老奶奶手拿照片面对观众,镜头从照片聚焦到老奶奶脸上,营造出温馨和怀旧的氛围。 2. 窥视镜头(Spy shot) 提示词:镜头在一个隐蔽的位置拍摄。一位头发发白的老奶奶坐在窗前双手捧着一张老照片,面带思念地看着照片,场景温馨。 3. 摇晃镜头(Handheld shot) 提示词:镜头摇晃地跟随一个在战斗中的士兵,画面展示战场上的混乱、飞扬的尘土和四处奔跑的战友,增加紧张和真实感。 4. 穿梭镜头(Hyperlapse shot) 提示词:镜头穿过一条隧道,通过隧道外面是美丽的雪山。 5. 跟随镜头(Tracking shot) 提示词:镜头紧跟一辆在赛道上高速行驶和漂移的跑车。 6. 车载镜头(Carmounted shot) 提示词:镜头从驾驶员或汽车前部的视角出发,展示前方的道路和沿途的建筑物。 7. 动作镜头 提示词:镜头快速捕捉一个男人在激烈的打斗中差点摔倒,增强紧张感和动态性。 8. 无人机视角(Drone perspective shot) 提示词:无人机视角展示一个人站在高山顶峰,俯瞰壮丽景色,远处是连绵的山脉和云海,营造广阔和宏伟的氛围。 9. 低视角镜头 提示词:镜头从楼梯低处仰视一个天空和建筑,增强仰视感和宏伟感 提示词:相机在地上拍摄一个清晨正在跑步的人,背景远处虚焦。 10. 仰拍镜头(Lowangle shot) 提示词:镜头从树底向上拍摄,展示高大的树干和繁茂的树冠。 11. 推镜头(Dolly in) 提示词:镜头从远处向前推进,打开城堡的大门。 12. 旋转变焦镜头 提示词:镜头在变焦的同时快速旋转,展示一个人在旋转木马上。 13. 时间流逝镜头(Timelapse shot) 提示词:镜头固定不动,长时间拍摄并加速播放,展示城市从白天到夜晚的变化。 14. 背光镜头 提示词:镜头逆光拍摄,一个男人站在夕阳下,背光照亮他的轮廓,面部隐在阴影中。 15. 失焦镜头 提示词:镜头失焦拍摄城市的霓虹灯,灯光模糊,呈现出梦幻的效果。 16. 平行镜头(Side dolly shot) 提示词:镜头与骑自行车的少年平行移动,跟随他的骑行路径,保持在相同的水平线上。 17. 镜头推拉变焦 提示词:镜头同时进行推拉和变焦,展示一个人在惊讶地看着远方。 18. 虚实结合镜头 提示词:镜头将真实场景和虚拟场景结合,以 X 光效果拍摄骨骼,以真实场景展示一个手拿着一把钥匙,钥匙的轮廓清晰,背景虚化。 19. 反射镜面镜头(Reflection shot) 提示词:反射镜头,通过浴室镜子反射展示一个人在洗脸的画面 20. 黑白镜头 提示词:黑白镜头,展示一个老街区的复古场景,增强怀旧感。 21. 特写镜头(Closeup shot) 提示词:特写镜头展示一双男性眼睛。 二、全新 AI 整活计划第一期:平行宇宙通勤指南 1. 一致性多镜头提示词 Prompt:女孩后退,拿着斧头的骷髅朝镜头走近。镜头切换,近景正面拍摄女孩的上半身,她满脸惊恐发出尖叫。 基础参数:镜头固定,16:9,10s 视频链接: 2. 一致性多镜头提示词 Prompt:远景拍摄,一个男人转身朝画面左侧走去。镜头切换,近景拍摄男人的上半身,他一脸忧愁。 基础参数:镜头固定,16:9,10s 视频链接: 3. 一致性多镜头提示词 Prompt:穿黄色外套的长发白人女人和卷发黑色外套的男人对视微笑。镜头切换,近景拍摄黄色外套的长发女人微笑的脸。镜头切换,近景拍摄卷发黑外套男人微笑的脸。 基础参数:镜头固定,16:9,10s 视频链接:
2024-12-19