Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

将活动主题拆解为大量结构化提示词,用于文生视频

Answer

以下是将活动主题拆解为大量结构化提示词用于文生视频的相关内容:

技巧 1:提示词的结构 当提示词有清晰的结构时,提示效果最有效。可使用简单公式:[摄像机移动]+[建立场景]+[更多细节];复杂公式:[镜头语言]+[光影]+[主体(主体描述)]+[主体运动]+[场景(场景描述)]+[情绪/氛围/风格]。 例如:无结构提示词“小男孩喝咖啡”,有结构的提示词“摄影机平移(镜头移动),一个小男孩坐在公园的长椅上(主体描述),手里拿着一杯热气腾腾的咖啡(主体动作)。他穿着一件蓝色的衬衫,看起来很愉快(主体细节描述),背景是绿树成荫的公园,阳光透过树叶洒在男孩身上(所处环境描述)”。

技巧 2:提示词的优化 有三个原则:

  1. 强调关键信息:在提示的不同部分重复或强化关键词有助于提高输出的一致性。
  2. 聚焦出现内容:尽量让提示集中在场景中应该出现的内容上。
  3. 规避负面效果:在提示词中写明不需要的效果。 写提示词时,首先要明确场景中的人物和冲突,其次是对场景进行详细描述,包括地点、人物形象、任务动作等细节,使用生动的动词营造动态和戏剧化氛围,第三要加强镜头语言,如推、拉、摇、移、升、降等,每种镜头运动都有其特定作用和效果。

PixelDance V1.4 提示词指南 图生视频的基础提示词结构为:主体+运动。当主体有突出特征时可加上,需基于输入图片内容写,明确写出主体及想做的动作或运镜,提示词不要与图片内容/基础参数存在事实矛盾。

Content generated by AI large model, please carefully verify (powered by aily)

References

工具教程:清影

当提示词有清晰的结构时,提示效果是最有效的。使用以下结构有助于生成期望的结果:简单公式:[摄像机移动]+[建立场景]+[更多细节]复杂公式:[镜头语言]+[光影]+[主体(主体描述)]+[主体运动]+[场景(场景描述)]+[情绪/氛围/风格]无结构提示词:小男孩喝咖啡有结构的提示词:摄影机平移(镜头移动),一个小男孩坐在公园的长椅上(主体描述),手里拿着一杯热气腾腾的咖啡(主体动作)。他穿着一件蓝色的衬衫,看起来很愉快(主体细节描述),背景是绿树成荫的公园,阳光透过树叶洒在男孩身上(所处环境描述)。|类型|无结构提示词|有结构的提示词||-|-|-||prompt|小男孩喝咖啡|The camera pans to a young boy sitting on a park bench with a steaming cup of coffee in his hand.He looked pleasant in a blue shirt with a tree-lined park in the background,and the sun shining through the leaves on the boy.||视频效果|[a9c8b0e7-8384-5877-820f-02ad3dc3965d_0.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/GzLqbBlfwo2S7BxaXSOc2Q0znFd?allow_redirect=1)|[eea46e02-9b82-5aac-a23e-846227ca8da4_0.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Ei2qbEYPbocpy7xOXnEcqiCgnBg?allow_redirect=1)|

工具教程:清影

还有三个原则:强调关键信息:在提示的不同部分重复或强化关键词有助于提高输出的一致性。例如,摄像机以超高速镜头快速飞过场景。(其中的“超高速”、“快速”就是重复词)聚焦出现内容:尽量让你的提示集中在场景中应该出现的内容上。例如,你应该提示晴朗的天空,而不是没有云的天空。规避负面效果:为了进一步保障视频生成质量,可以在提示词中写明不需要的效果。例如:“不出现扭曲、变形、模糊的场景。”✍️怎么写一个提示词?首先,要明确场景中的人物和冲突是什么,这是推动整个场景发展的关键因素。例如,在一个追逐场景中,冲突可能是间谍试图逃脱追赶者的追捕。其次,是对场景进行详细的描述,包括地点、人物形象、任务动作等细节。使用生动的动词来营造动态和戏剧化的氛围,如“匆匆前行”、“缓缓旋转”等。例如:“在昏暗的街道上,雨滴如注,一个孤独的行人匆匆前行。”第三,加强镜头语言,镜头语言是通过摄影机的移动或焦距变化来表现画面内容的一种方式。常用的镜头运动包括推、拉、摇、移、升、降等。每种镜头运动都有其特定的作用和效果:推镜头:逐渐聚焦在某一角色的面部表情上,突出表现该角色的情感变化。拉镜头:逐渐远离主体,展示环境或背景,形成一种运动的主体不变、静止的背景变化的造型效果。摇镜头:跟随主体运动的表现方式,可以突出主体的同时,又可以交待主体运动方向、速度、体态及其与环境的关系。提示词要具体明确且符合物理规律,使用简单且清晰的语言。

PixelDance V1.4 提示词指南

图生视频的基础提示词结构为:主体+运动。不要对静止部分过多描述,只描述想动的部分。当主体具有一些突出特征时,可以加上突出特征来更好定位主体,比如老人,戴墨镜的女人等。需要基于输入的图片内容来写,需要明确写出主体以及想做的动作或者运镜,需注意提示词不要与图片内容/基础参数存在事实矛盾。比如图片中是一个男人,提示词写“一个女人在跳舞”;比如背景是草原,提示词写“男人在咖啡厅里唱歌”;比如选择了固定相机的基础参数,却在提示词里写了镜头环绕。|输入参数|生成视频||-|-||prompt:老人戴上眼镜<br>基础参数:相机固定,16:9,10s|[pd41.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/JrLbb5rRfooaesxslvxc4FS9nsb?allow_redirect=1)<br>单主体+单动作|

Others are asking
比较好用且免费的ai文生图
以下为一些好用且免费的 AI 文生图工具及使用方法: 1. Stability AI: 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 进入 ARTISAN 频道,任意选择一个频道。 输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。 输入/dream 提示词,和 MJ 类似。 可选参数有五类: prompt(提示词):正常文字输入,必填项。 negative_prompt(负面提示词):填写负面提示词,选填项。 seed(种子值):可以自己填,选填项。 aspect(长宽比):选填项。 model(模型选择):SD3,Core 两种可选,选填项。 Images(张数):1 4 张,选填项。 2. 即梦: 文生图目前每次消耗 2 积分,垫图生图每次消耗 2 积分。 每天登录送 66 积分,等于可以免费做 33 次定制化人物肖像写真。一次 4 张,33×4 = 132 张图。如果不够用,可以用一个新的手机号再注册个即梦账号。 基础会员比免费版多了去水印功能。 免费去水印的网站和软件也有很多,比如这个 https://www.apeaksoft.com/zhCN/watermarkremover/ 。 3. Liblibai: 定主题:确定生成图片的主题、风格和表达的信息。 选择 Checkpoint:按照主题找内容贴近的 checkpoint,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 帮助控制图片效果及质量。 设置 VAE:无脑选 840000 那一串。 CLIP 跳过层:设成 2 。 Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语的组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样方法:一般选 DPM++2M Karras,也可留意 checkpoint 详情页上模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 后,在 30 40 之间。 尺寸:根据喜好和需求选择。 生成批次:默认 1 批。
2025-03-08
文生图模型打分的排行榜
以下是文生图模型的打分排行榜(从高到低): 文生图模型: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 文生视频模型: 海螺:语意遵循不错,模型解析有待提高,自带电影滤镜,但有些用力过猛,得益于海量的影视数据。 可灵 1.5:颜色失真,缺少质感,偏科严重,物理规律和提示词遵循较强。 智谱:语意遵循,质感较差,画质一言难尽。 mochi:动态丰富,想象力丰富,美学质感较好。 pd 2.0 pro:PPT 效果,训练数据较少,但是联想启发性很好。 runway:空间感强,语意遵循较差,流体效果一绝。 Seaweed 2.0 pro:质感略弱于可灵 1.5,整体感觉师出同门。 sora:运镜丰富,物理逻辑混乱。 Pixverse v3:动态稳,丝滑,整体美学强于可灵 1.5。 luma 1.6:语意遵循差,提示词随便,动起来算我输。
2025-03-07
怎么在AI文生图中精准的输出想要的文字
要在 AI 文生图中精准输出想要的文字,可以参考以下方法: Recraft 模型: 提供提示词加上文本位置,因为模型获得的输入数据越多,越容易产生精确输出。遵循指令比仅理解提示词更容易。 Tusiart 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 ControlNet:可控制图片中特定的图像,如人物姿态、生成特定文字等,属于高阶技能。 局部重绘:下篇再学。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 Liblibai 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 设置 VAE:选择 840000 即可。 CLIP 跳过层:设成 2 。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 时,迭代步数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 生成批次:默认 1 批。
2025-03-06
我想大规模进行文生图,然后图生视频,用什么方案比较好
以下是一些大规模进行文生图然后图生视频的方案: 1. 可以选择大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图使用 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。同时,视频中的小部分音效可在网上无版权下载,剪映中也有大量音效可用。 2. 对于视频的大部分片段,可以用 runway(https://app.runwayml.com/)制作,少数片段用即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。登录 runway 账户后,在首页左侧点击“Text/Imagine to Video”,上传图片,更改模型版本、输入提示词、修改生成的视频时长等。 3. 以下是一些图生视频模型的特点(从高到低排序): pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型理解能力更强,更适合连续运镜,适合做一些二次元动漫特效。 luma 1.6:画面质量挺好,但价格昂贵。 可灵 1.6 高品质:表现出色。 海螺01live:文生视频比图生视频更有创意,图生也还可以,但大幅度动作下手部会出现模糊,整体素质不错,价格较贵。 runway:画面质量不算差,适合做一些超现实主义的特效、特殊镜头。 智谱 2.0:画面特效出众,价格便宜,量大,但整体镜头素质稍差。 vidu1.5:适合二维平面动画特效,大范围运镜首尾帧出色,但价格贵。 seaweed 2.0 pro:适合动态相对小、环绕旋转运镜动作小的情况。 pixverse v3 高品质:首尾帧表现好,画面美学风格有待提升。 sora:不好用,文生视频较强,但图生视频抽象镜头多,不建议使用。
2025-03-06
分析文生视频怎么用
文生视频的使用分析如下: 优势:制作便捷高效,能提供多元的创作思路。 缺点:较难保证主体或画面风格的稳定性。 主要使用场景:更多作为空镜头、非叙事性镜头、大场面特效镜头的制作。 实际运用案例: 《科幻预告片》:通过对同类型视觉元素的空镜头制作,利用“爆破”等优质表现的画面作为主要节奏点,制作出充满紧张感的科幻电影伪预告片。 《雪崩灾难片预告》:根据“雪崩”主题,设计多组空镜头、大场面镜头组合,通过节奏感较强的剪辑,制作出以简单故事线串联而成的预告片。 文字生成视频的 AI 产品有: Pika:擅长动画制作,支持视频编辑。 SVD:可在 Stable Diffusion 图片基础上直接生成视频。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 不同文生视频模型的特点(从高到低排序): |模型|特点(优缺)| ||| |海螺|语意遵循不错,模型解析有待提高,自带电影滤镜,但有些用力过猛,得益于海量的影视数据| |可灵 1.5|颜色失真,缺少质感,偏科严重,物理规律和提示词遵循较强| |智谱|语意遵循,质感较差,画质一言难尽| |mochi|动态丰富,想象力丰富,美学质感较好| |pd 2.0 pro|PPT 效果,训练数据较少,但是联想启发性很好| |runway|空间感强,语意遵循较差,流体效果一绝| |Seaweed 2.0 pro|质感略弱于可灵 1.5,整体感觉师出同门| |sora|运镜丰富,物理逻辑混乱| |Pixverse v3|动态稳,丝滑,整体美学强于可灵 1.5| |luma 1.6|语意遵循差,提示词随便,动起来算我输| 更多的文生视频网站可查看:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-05
文生图
以下是关于文生图的详细教程: 1. 定主题:明确您需要生成一张具有何种主题、风格和表达信息的图。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的模型,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看的帖子中使用的 lora。 4. ControlNet:可控制图片中特定图像,如人物姿态、生成特定文字或艺术化二维码等,属于高阶技能。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和句子长度。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可参考 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 时,采样次数一般在 30 40 之间。 11. 尺寸:根据个人喜好和需求选择。 以下是一些常见的文生图工具: 1. Tusiart 2. Liblibai 3. 腾讯混元 4. luma 5. Recraft 6. 文生图大模型 V2.1L(美感版) 7. 美图奇想 5.0 8. midjourney 9. 快手可图 10. Flux.1.1 11. Stable Diffusion 3.5 Large 12. Imagen 3 网页版 以下是一个提示词示例:赛博哥特时尚摄影,风格化的身材瘦高细长的男性,类似《质量效应》中的生物机械两栖类星种植物外星怪物,身着全套赛博朋克街头服饰。机械天使手持超级等离子步枪,融合本・埃尔特、库尔特・帕普斯坦、亚历杭德罗・阿尔瓦雷斯的风格,色调为深海蓝色与靛蓝色,类似漫威漫画风格,带有幽灵般的形态,青蛙核风格,身形拉长,超写实细节,纤细,3D 雕刻感,石板灰、丁香色、奶油冰棒色、铜色、薄荷绿,极简主义,烟熏眼影,亮白色凸起的生物形态点状图案,发光的眼睛,发光的反向图案背景,色彩鲜艳,发光的未来主义赛博朋克盔甲与武器,变焦模糊,空灵的打光,逆光
2025-03-04
【深度拆解】ChatGPT-4o背后的技术革新:从语言模型到多模态跨越
ChatGPT4o 背后的技术革新具有重要意义。人类的感知多样,仅靠语言描述世界远远不够,多模态理解非常有用,能更全面学习世界、理解人类需求等。2023 年 9 月 GPT4v 发布,将大语言模型竞赛带入多模态模型时代,如 ChatGPT 能看图说话、画图,Google 的 Gemini 支持多种模态,但 OpenAI 常抢先发布。今年 5 月 OpenAI 发布 GPT4o,向智能体方向迈进,其是之前技术的集大成者,通过端到端神经网络混合训练视觉、语音和文本数据,平均音频输入反应时间为 300 毫秒,能感悟人类表达的情绪等。OpenAI 未公开 GPT4o 技术细节,唯一线索来自内部炼丹师的博客 AudioLM。此外,GPT4 是 OpenAI 的多模态工具,在编程任务中表现出色,ChatGPT 是用户友好界面,可与高级语言模型交互。2024 年 5 月 14 日 OpenAI 发布 GPT4o,效率高、价格降低、延迟缩短。9 月 16 日 OpenAI 推出 o1 系列模型,在复杂任务中表现优异,o1mini 适合编码任务,两个模型已在 ChatGPT 中提供,有免费或收费版本。
2025-03-09
02-21 | 哪吒爆款AI视频制作拆解
以下是对哪吒爆款 AI 视频制作拆解的相关内容: 视频创作流程: 包括脚本制作、图片生成、视频生成和视频剪辑,使用的工具分别为豆包、利不利不、可灵和海螺、剪映。 爆火原因分析: 1. 爆款 IP 带来热度和流量,如哪吒。 2. 反差作用,如神话人物与现代生活的反差,好玩有趣吸引停留。 3. 共鸣作用,如职业选择大众化、接地气且贴合角色形象性格并有槽点,引发讨论和分享。 主要角色职业设定: 根据哪吒、敖丙、敖光、敖润、申公豹、太乙真人、吴亮先尊等角色的性格和形象特点,为其设定了快递小哥、咖啡店员、水产店老板等贴合又有槽点的职业。 视频传播情况: 新华社官媒编辑索要并传播了有趣且火的哪吒相关视频。 相关案例特点: 列举了宠物走秀、打工猫等案例,指出其具有反差、萌系、贴近生活等特点。 短视频创作要点: 形式在短视频中可稍大于内容,如开花、冰冻、毛茸茸等风格,但要成热门爆款需内容大于形式,具备反差、共鸣等,且热门爆款有难度,小爆款也不错。 哪吒主题 VB 先导片制作: 周四定方案,周六、周天制作,周天晚上上线。未看片子不耽误制作,用可灵多图参考生成角色、道具等,用集梦生成场景等,还可用可灵 AI 换装设定角色服装。 利用多图生成 AI 视频的创作实践: 1. 哪吒角色创作:通过提供多张零碎照片,参考牙齿等细节,设定现代版哪吒形象,考虑其走位和行为进行场面调度。 2. 成年哪吒合成:将哪吒的头颅与他人身子结合,先给手部特写再揭示人物,提示词思路技巧需统一。 3. 申公豹角色处理:与哪吒类似的处理方式,先交代环境,再展现人物动作。 4. 其他角色创作:包括敖丙、大厨、美丽姑娘、土拨鼠、石姬娘娘等角色,根据不同需求设定形象和动作。 工具特点对比: 可灵能满足需求但生成时间长,微度 AI 生成速度快但结果有区别。 会议主题:0221|哪吒爆款 AI 视频制作拆解 会议时间:2 月 21 号(周五)19:58 22:21(GMT+08) 主讲老师:@小龙问路、@子豪插画
2025-03-07
拆解agent
AI Agent 的拆解是指如果单次请求不能很好地遵循并完成所有事情,就将其拆分为一步一步的子任务。比如用户表达目标后,让大模型根据目标拆分出逐步的子任务,再通过工程方式循环请求子任务(可能会插入新任务),直至所有子任务完成。例如去年的 AutoGPT 就是这种方式(Planning and excute),但它只是学术界的探索,难以落地,除了一些 demo 产品,只在实在智能的 RPA 上见过。难以落地的原因有很多,如计划赶不上变化,提前规划的任务难以保证正确执行;大模型并非全知全能,规划的任务不一定正确;工程化执行时,循环的进入和退出时机也是问题。后来大家都在解决这些问题,思路和解法不同,比如 OpenAI 搞 Tools,FastGPT 搞可视化的 workflow 编排,大家逐渐意识到 workflow 是短期最优解,于是纷纷开始做。 判断自己的任务/Prompt 是否需要拆解为工作流,构建稳定可用的 AI Agent 是不断调试和迭代的过程,通常从性能最强的 LLM 着手,先用单条 Prompt 或 Prompt Chain 测试任务执行质量和稳定性,再根据实际情况和最终使用的 LLM 逐步拆解子任务。一般对于场景多样、结构复杂、输出格式要求严格的内容,基本可预见需要拆解为工作流。此外,鉴于 LLM 只能处理文本输入输出,涉及多媒体内容生成或从网络自主获取额外信息等能力时,必然需要通过工作流调用相应插件。只用一段 Prompt 的 Agent 也算 AI Agent。
2025-01-05
有没有能分析拆解腾讯视频的AI工具?
目前有使用 Gemini 1.5 Pro 来分析和拆解腾讯视频的工具。以下是一些相关信息: 大家可以放自己的案例,本文档可编辑。 郑跃葵:拿个库布里克的电影来分析,连大师手法都学会了。 大峰 AI 绘画:太酷啦又多了一个 AI 视频创作助手。 Jones:b 站大学复习有救了。 对!:拉片太方便了。 Shock:而且可以干掉人工标注了,安徽那边数据标注众包要失业了。 清慎:1. 影视二创长剪短,一键生成小帅、小美、大壮、丧彪的故事;2. 警察叔叔查监控,一句话找出监控中的可疑现象;3. 替代 Opus 等长剪短工具。 测试者阿强:好用,准确度很高,把前几天用 AI 做的功夫熊猫之离谱村版丢进去分析,效果很好。拆解作品。 测试者张余和 Ling、洋洋也有拆解结果,Gemini 1.5 Pro 给出了全文。 您可以尝试使用 Gemini 1.5 Pro 来满足您对腾讯视频的分析拆解需求。
2024-12-11
拆解 通往AGI之路 知识付费运营体系
通往 AGI 之路的知识付费运营体系可以从以下几个方面来拆解: 1. 课程特点: 【野菩萨的 AIGC 资深课】由工信部下属单位【人民邮电出版社】开设,是全网技术更新最快的课程之一。 课程内容涵盖 AI 绘画、视听语言和 ChatGPT 等多个体系的知识,能满足不同阶段学习者的需求。 2. 付费与开源的比较: 开源社区资源丰富,适合自律的自主学习者。 知识付费课程提供系统结构、专业指导、针对性计划和互动反馈,是高效的学习途径。 3. 社区需求: 新同学加入时,对适合小白新手入门的课程有需求,相比啃知识库的图文,更愿意接受老师手把手的教学。 4. 个人经历:创建者在希望快速入门 AI 绘画时,投入金钱学习了许多付费的 AI 课程,并最终选择了野菩萨的课程。 通往 AGI 之路本身不仅是开源的 AI 知识库,还是连接 AI 学习者、实践者、创新者的社区,具有以下特点: 1. 共同建设:由一群热爱 AI 的专家和爱好者共同贡献并整合各种 AI 资源。 2. 丰富内容:提供一系列开箱即用的工具,文生图、文生视频、文生语音等详尽的教程。 3. 紧跟前沿:追踪 AI 领域最新的进展,时刻更新。 4. 活动多样:包括东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等社区共创项目,以及 AIPO 活动、共学活动等。 5. 扶持与奖励:在小红书发布活动内容带特定标签有流量扶持,设有最佳创业奖和最佳投资奖等。
2024-11-25
如何拆解爆款短视频?
一个爆款短视频通常需要满足以下几点拆解要点: 1. 切片:短视频能够战胜长视频的关键在于对长视频进行切片处理。同理,要在短视频领域脱颖而出,也需不断切片,将一个短视频转化为多个短视频的集合,增加信息密度,大拆小并狂加料。 2. 通感:人的大脑分为直觉脑和理性脑,直觉脑通过五感工作。例如,头疗、水疗直播间靠声音让人感到舒服,美食直播间把美食切开喂到观众面前能让人不知不觉看很久。总之,不要让观众动脑子。 3. 反差:关于反差的详细内容可参考抖音航线里行舟大佬的相关文档。 此外,拆解爆款短视频还可以按照以下步骤和提问模板进行: 1. 确保 ChatGPT 理解您要拆解的角度。 2. 输入短视频脚本并让 ChatGPT 开始拆解。 3. 让 ChatGPT 提出内容的修改建议,并分点式给出答案。 4. 要求 ChatGPT 以特定风格去做修改。 具体的提问模板包括: 1. 建立自己的爆款库,并选择其中 1 个爆款内容。 2. 让 ChatGPT 理解您拆解的角度,例如:请您明确您理解以下名词的涵义(列举拆解角度):XXX、XXX、XXX;请您根据 XXXX(列举拆解角度),分析以下 XXXX(列举内容类型,例如文章/脚本)。 3. 让 ChatGPT 提出内容的修改建议,并分点式给出答案,例如:根据上述分析,请您判断这个 XXXX(列举内容类型,例如文章/脚本)的亮点和不足在哪里;请根据上述分析,进一步提出内容的修改建议,并分点式告诉我。 4. 要求 ChatGPT 以特定风格去做修改,例如:请根据上述内容的修改建议,对这个 XXXX(列举内容类型,如脚本/文章)进行修改,并输出 XXXX(列举内容类型,如脚本/文章)的文案;请将这个 XXXX(列举内容类型,如脚本/文章)调整成 XXX 风格(适用于 XX 平台,或与某作者相近风格,例如用王家卫风格、金庸风格)。
2024-09-28
如果要搭建一个自己的业务知识的结构化知识库,推荐哪个平台和工具?
以下是为您推荐的搭建自己业务知识结构化知识库的平台和工具: 1. Coze: 影响 RAG 输出质量的因素:当下这些平台的 RAG 能力对问答场景友好,其他场景效果一般。若需要企业级复杂知识库场景,可能需要找专业团队,收费几万到几十万不等。 基础能力:包括提示词(设定 Bot 身份、目标和技能)、插件(通过 API 连接集成平台和服务)、工作流(规划和实现复杂功能逻辑)、记忆库(保留和理解对话细节,添加外部知识库)。 相关参考:编写提示(https://www.coze.cn/docs/guides/prompt)、插件介绍(https://www.coze.cn/docs/guides/create_plugin)、工作流介绍(https://www.coze.cn/docs/guides/workflow)、知识库介绍(https://www.coze.cn/docs/guides/knowledge)、数据库(https://www.coze.cn/docs/guides/database)。 2. 您还可以参考以下文章: 《小七姐:信息管理工具与方法》:从信息源的选择、信息通路的建立、知识结构化、知识内化与应用等方面展示了信息管理和知识体系搭建的过程。 《这可能是讲 Coze 的知识库最通俗易懂的文章了》:其中提到如果想使用专门搭建个人知识库的软件,可以查看《手把手教你本地部署大模型以及搭建个人知识库》(https://waytoagi.feishu.cn/wiki/ZKGmwsQhTihYZ8kdu7uccF1lnQc?from=from_copylink),忽略本地部署大模型环节,直接看其中推荐的软件。但使用该软件可能需要对接一些额外的 API,建议先了解 RAG 的原理再使用。
2025-03-05
如何让大模型输出结构化的数据
要让大模型输出结构化的数据,可以采取以下几种方法: 1. 设计合理的 Prompt 工程: 明确的待处理内容指引:在构建 Prompt 时,清晰地定义需要处理的文本,并使用标记框起来,让模型准确识别待处理内容范围。 提供明确字段定义:具体化每个字段的名称、用途及要求,为模型提供清晰的提取方向。 异常处理:设置异常处理原则,如规定缺失数据使用默认值填充,特殊数据类型符合标准格式,确保模型输出的完整性和一致性。 要求结构化输出:指示模型以结构化格式(如 JSON)输出数据,便于后续处理和系统集成。 2. 搭建工作流: 模型选择:根据需求选择合适的大模型,如默认的豆包 32k 或更大的 kimi128k 等。 配置参数:进行批处理,输入相关参数,如文章内容正文、url 链接和标题等。 提示词输入:将相关内容一起送给大模型进行总结,并拼接成特定格式输出。 汇总格式化最终输出内容:使用代码节点对大模型输出的内容进行最终格式化。 3. 探索 JSON Output 应用: 无模板的 Excel 导入:改变传统数据导入方式,通过 Prompt 读取想要的数据列。 AI 审核员:在人审环节前加 AI 审,提供相关知识和少量示例,输出简单结果。 分类器:一个 Prompt 即可完成分类任务。 应用于其它业务场景:如在一些业务场景中落地,提高效率。 但需要注意的是,过去大模型还不太成熟,应用过程可能会有一些困难。
2025-02-27
怎么让AI识别对话,并生成结构化数据存储到我的软件系统里
要让 AI 识别对话并生成结构化数据存储到软件系统里,可以参考以下方法: 1. 基于结构化数据来 RAG:如果原始数据本身就是结构化、标签化的,不必将这部分数据做向量化。结构化数据的特点是特征和属性明确,可用有限标签集描述,能用标准查询语言检索。以餐饮生活助手为例,流程包括用户提问、LLM 提取核心信息并形成标准查询、查询结构化数据、LLM 整合回复。 2. 利用 Coze 平台设计 AI 机器人:创建好 Bot 后,从“个人空间”入口找到机器人,进行“编排”设计。Coze 平台常用的概念和功能包括提示词(设定 Bot 身份和目标)、插件(通过 API 连接集成服务)、工作流(设计多步骤任务)、触发器(创建定时任务)、记忆库(保留对话细节,支持外部知识库)、变量(保存用户个人信息)、数据库(存储和管理结构化数据)、长期记忆(总结聊天对话内容)。设计 Bot 时要先确定目的,比如“AI 前线”Bot 的目的是作为 AI 学习助手,帮助职场专业人士提升在人工智能领域的知识和技能,并提供高效站内信息检索服务。 注:Coze 官方使用指南见链接:https://www.coze.cn/docs/guides/welcome ,遇到疑问也可查阅该指南。
2025-02-18
生成一个完整的结构化提示词
以下是为您生成的关于结构化提示词的相关内容: 为 AI 视频生成设计的结构化提示词模板包含镜头语言、主体、细节、氛围等要素,适合生成具有电影感的大场景视频。完整提示词结构示例为:主题风格+镜头运动+主体描述+动态细节+背景环境+光影色调+情绪氛围(可附加技术参数:如时长、运镜速度、镜头焦距等) 样例驱动的渐进式引导法是让 AI 主动读懂您的想法。以 1 2 个正向样例作为起点,通过与 AI 的多轮对话,引导 AI 从样例中提炼隐含的生成要求,逐步完善提示词。例如教 AI 仿写爆文时,只需提供优秀样例,AI 会自动分析理解精髓并生成符合自身运作方式的指令。 其核心步骤包括: 1. 构建初始样例:创建符合期望输出的具体例子。 2. 评估样例,尝试提炼模板:让 AI 分析理解样例的结构和关键元素,并以专家视角优化样例。 3. 固定模板,强化要求说明:基于对初始样例的理解,让 AI 提出通用模板,通过测试 Prompt 验证可靠性。 4. 生成结构化提示词:将优化后的模板转化为结构化的提示词,用户适当调整并确认后投入使用。 在这个过程中,用户的角色主要是: 1. 提供尽可能与自己预期一致的初始样例。 2. 判断 AI 的输出质量。 3. 反馈改进建议,提供行动引导。 这种方法的优势在于简化了提示词设计过程,让非专业用户也能创建高质量的 Prompt。通过引导 AI 进行分析和优化,用户可以专注于判断输出质量和提供反馈,而不需要深入理解复杂的 Prompt 工程技巧。接下来,将通过一个实战案例“知识闪卡 AI”来逐步分享运用过程,帮助您直观了解如何使用该方法设计高质量的提示词。
2025-02-18
请把机器学习相关和大模型相关的知识点形成一个结构化的知识树,包括但是不限于算法、框架、工具、注意力机制等
以下是一个关于机器学习和大模型的结构化知识树: 一、基础数学知识 1. 线性代数 2. 概率论 3. 优化理论 二、机器学习基础 1. 监督学习 分类 回归 2. 无监督学习 聚类 3. 强化学习 三、深度学习 1. 神经网络 卷积网络 递归网络 注意力机制 2. Transformer 模型 四、自然语言处理 1. 语言模型 2. 文本分类 3. 机器翻译 五、计算机视觉 1. 图像分类 2. 目标检测 3. 语义分割 六、前沿领域 1. 大模型 2. 多模态 AI 3. 自监督学习 4. 小样本学习 七、工具与框架 1. TensorFlow 2. PyTorch 八、应用领域 1. 自然语言处理 2. 计算机视觉 3. 推荐系统 九、数据处理 1. 数据采集 2. 数据清洗 3. 特征工程 十、模型部署 1. 模型优化 2. 模型服务 十一、科研实践 1. 论文阅读 2. 模型实现 3. 实验设计 十二、行业实践 1. 项目实战 2. 案例分析
2025-02-11
AI提示词结构化和普通的提示词相比好处是什么
AI 提示词结构化与普通提示词相比具有以下好处: 1. 降低沟通难度:使与模型的交互更加清晰和易于理解。 2. 提高结果准确度:能够更精准地引导模型生成符合预期的输出。 3. 增强可读性和组织性:基于 Markdown 语法和角色法框架的结构化提示词,让复杂任务的分解更加直观。 然而,结构化提示词也存在一定的局限性,比如限制了更多可能性,不太适合解决过于主观、个人情绪的问题,也未必能完全搞定所有需求。在提示词的发展过程中,经历了从依赖 OpenAI 官方的基本技巧,到各种提示词框架的出现,再到明确任务目标、采用角色扮演方法、进行结构化提示词编写、测试和迭代,以及封装为智能体等阶段。
2025-02-10
我想生成一个视频
以下是几种生成视频的方法: 1. Pika: 进入 generate 频道,目前有 10 个 generate 频道,任选一个进入。 工作流程: 直接生成视频:输入 /create,然后输入 prompt,得到视频。 图片生成视频:使用 MJ/SD 生成图像(可选)+在 PIKA 平台添加 prompt=得到视频。 2. PixVerse V2: 输入提示词。 上传图片(如无图片上传,可忽略此步骤)。 选择视频时长,支持 5s 和 8s 的视频生成,每个 Scene 的时长都会保持所选长度。 添加新片段:点击“Scene 1”旁边的“+”,为视频添加第二个片段。在该模式下,所有 Scene 画面风格都会与 Scene 1 保持一致,如 Scene 1 有图片,则会参考 Scene 1 中的图片风格。 生成视频:点击图标生成视频。每次生成需要花费 30Credits,且默认将所有片段拼接在一起,不支持单片段下载。 编辑生成的视频:点击视频进入编辑页面。视频下方分别为:角色,环境,动作。如生成的视频不满意,您可从相应的下拉选项中选择想要的效果。上方为进度条,通过点击切换 Scene,可一次性对多个 Scene 进行编辑后一起生成。未修改的 Scene,再次生成时也会改变,不会与之前生成的视频保持一致。 3. MorphStudio(网页 UI 版本): 在"Shot"卡中,输入提示并点击蓝色星号图标生成视频,也可以上传图片或视频,并以其他方式生成视频。 等待时间:根据提示以及视频长度和分辨率等因素,各代的等待时间可能从 20 30 秒到几分钟不等。随时生成更多的视频,因为你等待现有的完成。 展开视图/卡片信息:生成完成后,点击卡片右下角的展开图标来查看生成的照片的信息,包括提示、模型和用于该照片的参数。 重新生成视频: 重新提示:可以编辑本视频输入的提示,同时保持使用的所有模型和参数相同。 重试:保留原有的提示和设置,重新生成视频。 风格转换:保留原始视频的构图和动画,同时使用预设来更改视频的风格。目前有现实,动画 2D,动画 3D,幻想,像素风格可用,将很快增加更多预设。 添加/编辑镜头: 添加一个新镜头:点击屏幕左上角的按钮,在时间轴上添加一个镜头。新生成的抽牌将作为导出抽牌前的最后一张抽牌,您可以随意与其他抽牌切换抽牌的位置。 编辑快照:当单击快照卡右上角的“…”图标时,可以编辑卡的名称、添加说明,或者保存和删除快照。
2025-03-08
能够生成AI视频的免费国产软件有哪些?
以下是一些能够生成 AI 视频的免费国产软件: 1. Hidreamai:有免费额度,网址为 https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA:网址为 https://etna.7volcanoes.com/ 。这是一款由七火山科技开发的文生视频 AI 模型,能根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达 4K,最高 38402160,画面细腻逼真,帧率 60fps,支持中文和时空理解。 3. 可灵:网址为 https://klingai.kuaishou.com/ 。在 AI 视频生成领域表现出色,生成的视频质量高,生成速度快,对国内用户的可访问性强。支持文生视频、图生视频,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸。 4. Dreamina:处于国内内测阶段,有免费额度,网址为 https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频、视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以,文生视频支持多种控制和尺寸选择,默认生成 3s 的视频。
2025-03-08
免费的文字生成视频AI
以下为您介绍免费的文字生成视频 AI 工具: Pika Labs: 被网友评价为目前全球最好用的文本生成视频 AI。 功能:直接发送指令或上传图片生成 3 秒动态视频。 费用:目前内测免费。 使用方法: 加入 Pika Labs 的 Discord 频道:在浏览器中打开链接 https://discord.gg/dmtmQVKEgt ,点击加入邀请。 在 generate 区生成:左边栏出现一只狐狸的头像就意味着操作成功了,如果没成功点开头像把机器人邀请至服务器。接着在 Discord 频道的左侧,找到“generate”子区,随便选择一个进入。 生成视频:输入/create,在弹出的 prompt 文本框内输入描述,比如/create prompt:future war,4Kar 16:9,按 Enter 发送出去就能生成视频了。也可以输入/create,在弹出的 prompt 文本框内输入描述,点击“增加”上传本地图片,就能让指定图片生成对应指令动态效果。喜欢的效果直接右上角点击下载保存到本地。如果对生成的视频不满意,如图像清晰度不够高或场景切换不够流畅等,可以点击再次生成按钮,系统会进一步优化生成的效果。 此外,还有以下文字生成视频的 AI 产品: Pika:一款非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 Runway 的使用方法: 网页:https://runwayml.com/ 。 注册零门槛:右上角 Sign Up 注册,输入邮箱与基础信息,完成邮箱验证即可完成注册。 选择 Try For Free 模式:所有新注册用户会有 125 个积分进行免费创作(约为 100s 的基础 AI )。 生成第一个视频: 选择左侧工具栏“生成视频”。 选择“文字/图片生成视频”。 将图片拖入框内。 选择一个动画系数。 点击生成 4 秒视频。 下载视频。
2025-03-08
有没有视频转换拍摄脚本的AI工具
以下是一些可以将视频转换为拍摄脚本的 AI 工具: 1. ChatGPT + 剪映:ChatGPT 可生成视频小说脚本,剪映能根据脚本自动分析出视频所需场景、角色、镜头等要素,并生成对应素材和文本框架,实现从文字到画面的快速转化。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应视频内容,无需视频编辑或设计经验。 4. VEED.IO:提供 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划视频内容。 5. Runway:AI 视频创作工具,能将文本转化为风格化的视频内容,适用于多种场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,可根据文本脚本生成视频。 如果您想用 AI 把小说做成视频,大致的制作流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-08
10s的ai视频生成方案
以下是一些 10s 的 AI 视频生成方案: 1. Pika 2.2 版本:可以生成 10s 1080p 的 AI 视频,同时更新了 Pikaframes 模式,用户可通过首尾帧进行创意化自然转场的视频制作,能自由设置 1 10s 的转场时长。官方宣传视频: 地址:Pika.art 2. Storyflicks:用户输入一个故事主题,它使用大语言模型快速生成故事视频,视频中包含图片、故事内容、音频和字幕信息。地址:https://github.com/alecm20/storyflicks/blob/main/READMECN.md 在“我 AI 北京比赛&有手就行的 10s 创意视频制作”中: 出图方面: 智谱清言出图 可灵出图:第二轮出图采用可灵的参考图模式,并从百度搜索符合预期的图垫进去,城墙结构大体符合现实逻辑。 即梦出图:2.1 模型对提示词的理解更好,生成的风景画面也比 2.0pro 好些。 风格迁移:可使用 midjourney 的 Retexture 功能(有一定限制条件),平替方案可以选择即梦风格垫图或者 liblib 上面的一些风格迁移工作流。即梦风格垫图:https://www.liblib.art/modelinfo/e8e74a1540df4590b981be4ecd753dfe?from=personal_page&versionUuid=02ec32fcc5f94520b69efbc238ac5a6f 出视频方面:思考想要达到的效果,然后进行首尾帧提示词描述,一般用比较抽象化的短句式,用充足的留白让 AI 去进行随机性的填空。 此外,还有一些创意主题,如经典 icon 巡礼(长城、故宫一隅的延时拍摄,日出日落等)、宜居生活画卷(一碗豆汁里面的烟火人间等)、潮流文化新地标(国家博物馆里面的文物进行跳舞之类的趣味性互动等)、未来科技序章(创意上班场景等)。敲定的制作方案为先制作长城的日出延时摄影图片,之后采用风格迁移的方式将其变成秦朝时期的宫殿寺观壁画,利用首尾帧引导的“时间压缩”效果来体现历史演变。
2025-03-08
推荐我可以用来生成视频的AI网站,最好是免费的
以下是为您推荐的一些可以生成视频的免费 AI 网站: 1. Pika:这是一款出色的文本生成视频 AI 工具,擅长动画制作并支持视频编辑。目前内测免费,其生成服务托管在 discord 中。您可以按照以下步骤操作: 加入 Pika Labs 的 Discord 频道:在浏览器中打开链接,点击加入邀请 https://discord.gg/dmtmQVKEgt 。 在 generate 区生成:左边栏出现狐狸头像意味着操作成功,若未成功点开头像邀请机器人至服务器。接着在 Discord 频道左侧找到“generate”子区,任选一个进入。 生成视频:输入/create,在弹出的 prompt 文本框内输入描述,比如/create prompt:future war,4Kar 16:9,按 Enter 发送即可生成视频。也可通过上传本地图片生成对应指令动态效果。 2. SVD:如果您熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Haiper(有免费额度):https://haiper.ai/ ,能文生视频、图生视频、素描生视频、扩展视频,生成 HD 超高清的视频。文生视频支持选择风格、秒数(2s 和 4s)、种子值。 4. DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,2 秒图生视频,还可以做短视频拼长视频。 5. Morph studio(内测):https://app.morphstudio.com/ ,暂未对外开放,可在官网提交内测申请,discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3s 视频。 更多的文生视频网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-07