Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

现在可以实现0基础制作爆款视频的工作流了么

Answer

目前可以实现 0 基础制作爆款视频的工作流,以下是一些相关策略和方法:

  1. 发布视频时,鼓励粉丝评论他们想看到的内容或让他们为新内容命名,以增加互动性和激发创意。使用吸引人的标题和描述,包含相关关键词和标签,便于在平台上被更多人发现。
  2. 考虑与其他领域的创作者或品牌合作,扩大受众范围。
  3. 了解观众最活跃的时间,选择合适的时间发布视频,以最大化观看量。分析前几次视频的数据,从中获得灵感,调整创作方向。
  4. 以生物融合项目为例,如野牛与霸王龙的融合,视频分为两个镜头,每个镜头分别是一幅图。第一幅图是融合前,图像中央是一条从上到下的、发光的 DNA 双螺旋结构,纵向贯穿整个画面,把画面一分为二;第二幅图是融合后的,融合后的生物非常可怕、霸气,巨形怪兽,画面为阴暗风格,给人震撼。
  5. 对于小红书爆款单词视频,先拆解模板的制作流程,逐个轨道分析图片、音频、文字轨道,理解思路后用相关工作流搭建。制作固定的元素,如在测试工作流中增加插件将图片和音频合并成视频等。
Content generated by AI large model, please carefully verify (powered by aily)

References

乌鸦哥:生物融合项目教程

发布视频时,鼓励粉丝评论他们想看到的下一个融合物种,或者让他们为这个新物种命名。这样不仅能增加视频的互动性,还能激发更多的创意内容。使用吸引人的标题和描述,包含相关的关键词和标签,以便于在抖音上被更多人发现。1.合作与跨界推广考虑与其他领域的创作者或品牌合作,比如游戏公司、科幻作家,甚至是动物保护组织,以扩大你的受众范围。1.发布策略了解你的观众最活跃的时间,选择合适的时间发布视频,以最大化观看量。分析前几次视频的数据,看看哪些内容最受欢迎,可以从中获得灵感,调整创作方向。通过上述策略,你可以创作出一个既具有创意又能够吸引大量观众的视频。记住,成功的关键在于创新和质量,结合你的经验和这些建议,你完全有能力制作出爆款视频。You非常棒,让我们以上面提到的野牛与霸王龙,这两个生物的融合,开始制作第一个视频,视频分为两个镜头,每个镜头分别是一幅图。第一幅图是融合前,图像中央是一条从上到下的、发光的DNA双螺旋结构,纵向贯穿整个画面,把画面一分为二;第二幅图是融合后的,融合后的生物非常可怕、霸气,巨形怪兽,画面为阴暗风格,给人震撼,接下来请生成每个镜头的描述词,等待我确认后再依次生成图片。要求后面生成的所有生物融合的图风格统一。ChatGPT对于这个视频的创作,以下是为每个镜头制定的详细描述词,供您审阅和确认:

五津: DeepSeek+扣子:1分钟生成小红书爆款单词视频

大家好,我是五津。我们经常在小红书、抖音上见到这种爆款单词视频:[1942_1739600222.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/QdkMbOT4Eo31Z3xsRc9cGllInhb?allow_redirect=1)仔细观察这个视频,我们会发现,这个视频有规律:先问这是什么→再揭晓结果,反复多次。这种有规律的视频,可以考虑用扣子来制作,效果如下:[2月10日(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/AnAybCVuGosEV0xuWpTcJ8JTnTg?allow_redirect=1)[heading1]拆解视频[content]想实现这种视频模板,我们先拆解这个模板的制作流程,理解了这个思路,后续做其他类似的单词卡片视频,就会做了。想象你在做视频剪辑,视频剪辑会有图片轨道、音频轨道、文字轨道,逐个轨道分析。注意:各轨道上的元素时间对应关系。[heading1]涉及的知识点[content]理解了这个流程之后,我们就可以用扣子工作流来搭建了,这其中涉及到了以下知识点:

五津: DeepSeek+扣子:1分钟生成小红书爆款单词视频

第1步:在测试工作流中,增加以下插件,将图片+音频合并成视频,输出【videoUrl】(若插件调用失败,可能是这个插件免费的token用完了,查看下方【6-5视频1:图1+音频1合成视频】有解决方法)第2步:上一步得到的视频存于插件所在的服务器上,由于该插件不是扣子的官方插件,为了保证稳定,我们把这个视频下载到本地电脑。将视频输入测试工作流,直接在结束工作流输出结果,就能获得字节服务器上的视频地址。结尾图+结尾音频合并成结尾视频:https://p3-bot-workflow-sign.byteimg.com/tos-cn-i-mdko3gqilj/0a63f358d84543f4a33fc8799dd371f7.mp4~tplv-mdko3gqilj-image.image?rk3s=81d4c505&x-expires=1770630531&x-signature=a4hlk5K5Ft12VUG9RrV5Rr5nU4k%3D&x-wf-file_name=e64d6bec-5661-46f2-968c-73c33316f440.mp4至此,所有需要固定的元素做好了,下面进入正式的工作流制作过程:

Others are asking
02-21 | 哪吒爆款AI视频制作拆解
以下是对哪吒爆款 AI 视频制作拆解的相关内容: 视频创作流程: 包括脚本制作、图片生成、视频生成和视频剪辑,使用的工具分别为豆包、利不利不、可灵和海螺、剪映。 爆火原因分析: 1. 爆款 IP 带来热度和流量,如哪吒。 2. 反差作用,如神话人物与现代生活的反差,好玩有趣吸引停留。 3. 共鸣作用,如职业选择大众化、接地气且贴合角色形象性格并有槽点,引发讨论和分享。 主要角色职业设定: 根据哪吒、敖丙、敖光、敖润、申公豹、太乙真人、吴亮先尊等角色的性格和形象特点,为其设定了快递小哥、咖啡店员、水产店老板等贴合又有槽点的职业。 视频传播情况: 新华社官媒编辑索要并传播了有趣且火的哪吒相关视频。 相关案例特点: 列举了宠物走秀、打工猫等案例,指出其具有反差、萌系、贴近生活等特点。 短视频创作要点: 形式在短视频中可稍大于内容,如开花、冰冻、毛茸茸等风格,但要成热门爆款需内容大于形式,具备反差、共鸣等,且热门爆款有难度,小爆款也不错。 哪吒主题 VB 先导片制作: 周四定方案,周六、周天制作,周天晚上上线。未看片子不耽误制作,用可灵多图参考生成角色、道具等,用集梦生成场景等,还可用可灵 AI 换装设定角色服装。 利用多图生成 AI 视频的创作实践: 1. 哪吒角色创作:通过提供多张零碎照片,参考牙齿等细节,设定现代版哪吒形象,考虑其走位和行为进行场面调度。 2. 成年哪吒合成:将哪吒的头颅与他人身子结合,先给手部特写再揭示人物,提示词思路技巧需统一。 3. 申公豹角色处理:与哪吒类似的处理方式,先交代环境,再展现人物动作。 4. 其他角色创作:包括敖丙、大厨、美丽姑娘、土拨鼠、石姬娘娘等角色,根据不同需求设定形象和动作。 工具特点对比: 可灵能满足需求但生成时间长,微度 AI 生成速度快但结果有区别。 会议主题:0221|哪吒爆款 AI 视频制作拆解 会议时间:2 月 21 号(周五)19:58 22:21(GMT+08) 主讲老师:@小龙问路、@子豪插画
2025-03-07
有没有好用的小红书爆款笔记从选题到爆款笔记生成的ai工具
以下是一些好用的从选题到生成小红书爆款笔记的 AI 工具: DeepSeek:可用于脑爆活动方案、会议纪要总结、分析总结复盘内容、生成专业软件使用过程、写绘画提示词、创作小红书笔记、做私有模型等。 赛博发型师:基于 AI 技术的个性化发型设计服务,能通过分析用户面部特征等生成发型设计方案和效果图,设计报告可存档至飞书文档供专业发型师复核评估。 营销文案创作专家深度版:专为企业营销团队等设计,提供从文案框架创作到生成的一站式服务,还提供营销数据分析服务。 小红书账号文案、表情包、爆款名片生成等个性化小工具:例如小红书爆款文案生成。
2025-03-03
想要搜集社交媒体的爆款,建立对标账号库和选题库,该如何高效搜索?是否有可使用的AI工具?
以下是高效搜集社交媒体爆款、建立对标账号库和选题库的方法及可使用的 AI 工具: 1. 对于找对标账号的爆款文章: 在电脑微信上打开对标账号的微信公众号相关界面。手机支持长截图也可,但不推荐,因手机易被干扰。 刷文章时不仅看当前文章,还应点开作者后台查看其他文章,关注“低粉爆款”(即平常阅读量几百,突然有几万阅读量的异常值文章),大号的阅读量参考价值较低。 遇到不错的对标账号,想获取所有阅读量数据和标题时,可使用长截图结合中文识别能力强的大模型,如 kimichat,飞书客户端自带的长截图功能好用,其截图快捷键在设置中可查看和修改(Windows 为 Ctrl+Shift+A,Mac 为 Alt+Shift+A)。 2. 搭建选题库和标题库: 使用飞书文档创建一个文档,并打开选题库模板(https://zi6nfl20s5u.feishu.cn/wiki/J7KvwzJZLi7mX0k5B5EcQ0ahnIc?from=from_copylink),根据自身需要制作表格。 3. 可使用的 AI 工具:腾讯元宝,这是一个基于腾讯混元大模型的 AI 助手 App,提供包括 AI 搜索、AI 总结、AI 写作等多种功能,能在公众号等平台搜索和总结相关内容,使用提示词句式“去公众号搜索关于「xxx」的文章”。
2025-02-24
爆款AI视频
以下是关于爆款 AI 视频的相关内容: 2025AI 春晚: 行业身份:首届 AI 春晚发起人&总导演,包括央视总台论坛&直播、TEDxAI 演讲、得到分享等。 爆款视频案例:快手&国家反诈中心合作,微博 650w+热搜,快手 520w+热搜(6 月 28 日);央视&海尔冰箱首支 AI 概念短片(6 月 29 日);个人制作视频,无推流,快手平台 636w 播放(6 月 29 日)。 社区与企业关系:涉及 WaytoAGI、AIGCxChina 等聚会,以及德必集团、万兴集团、福布斯 AItop50 等的论坛分享,还有嘉定区政府颁奖、温州 AI 音乐大会、腾讯研究院论坛、江西财经大学分享、宣亚集团分享等。 WTF:1w 粉 10w 粉仅仅用时 13 天,像素级拆解《动物时装秀》: 作者模仿动物时装秀账号效果不错并分享教程。一个爆款视频至少要满足以下几点: 切片:短视频通过不断切片,增加信息密度,从长视频和其他短视频中脱颖而出。 通感:利用人的直觉脑,不让观众动脑子,如头疗、水疗直播间靠声音让人舒服,美食直播间靠展示美食吸引人。 反差:可参考抖音航线里行舟大佬的相关文档。 视频模型:Sora: OpenAI 突然发布首款文生视频模型 Sora,能够根据文字指令创造逼真且充满想象力的场景,生成 1 分钟的超长一镜到底视频,女主角、背景人物等都有惊人的一致性和稳定性,远超其他 AI 视频工具。
2025-02-21
爆款短视频文案prompt
以下是为您提供的爆款短视频文案 prompt 相关信息: Kimi 新出的常用语功能中有 15 款预设好的 Prompt,其中包括生成高质量的爆款网络文案。此外,还有如整理生成高质量会议纪要、整理课程 PPT、推荐影视、生成电影评论、进行职业导航、提供营销策划、进行面试模拟、生成宣传口号、进行期刊审稿、进行诗意创作、快速写新闻、凝练要点、创作短剧脚本、优化文字排版等功能。 使用 GPT 模仿创作内容的万能思路中,核心在于 GPT 对少样本范例的学习。编写 Prompt 时,要明确提供创作的方法论和技巧供 GPT 模仿学习,例如创作标题时,要明确运用的修辞手法、写作人称、语言风格、内容结构等。在数据收集方面,可以通过人工采集(复制粘贴、OCR 识别、自己手打)或自动采集(爬虫、脚本)的方式收集几十个对标博主的视频标题,采集完毕后可导出 Excel 表格并按点赞数降序筛选。
2025-02-21
ai应用有哪些爆款
以下是一些爆款的 AI 应用: 1. AI 摄影参数调整助手:使用图像识别、数据分析技术,常见于摄影 APP 参数调整功能,市场规模达数亿美元,能根据场景自动调整摄影参数。 2. AI 音乐情感分析平台:运用机器学习、音频处理技术,有音乐情感分析软件,市场规模数亿美元,可分析音乐的情感表达。 3. AI 家居智能照明系统:基于物联网技术、机器学习,如小米智能照明系统,市场规模数十亿美元,实现家居照明的智能化控制。 4. AI 金融风险预警平台:采用数据分析、机器学习,有金融风险预警软件,市场规模数十亿美元,能提前预警金融风险。 5. AI 旅游路线优化平台:借助数据分析、自然语言处理,如马蜂窝路线优化功能,市场规模数亿美元,可根据用户需求优化旅游路线。 此外,还有以下爆款: 1. AI 智能写作助手:如 Grammarly、秘塔写作猫,运用自然语言处理技术,市场规模数十亿美元,辅助用户进行高质量写作。 2. 淘宝拍照搜商品:使用图像识别、机器学习技术,市场规模数百亿美元,通过图像识别为用户推荐相似商品。 3. AI 语音助手定制开发:像小爱同学、Siri,采用语音识别、自然语言理解技术,市场规模百亿美元以上,为不同需求定制专属语音助手。 4. Keep 智能训练计划:基于数据分析、机器学习,市场规模数十亿美元,根据用户数据制定个性化健身方案。 5. 大众点评智能推荐:借助数据挖掘、自然语言处理,市场规模百亿美元规模,基于用户口味偏好推荐美食。 6. 阿里小蜜等电商客服:运用自然语言处理、机器学习技术,市场规模数十亿美元,为企业提供智能客服解决方案。 7. 超级简历优化助手:使用自然语言处理技术,市场规模数亿美元,帮助用户优化简历提高求职成功率。 8. 酷家乐等设计软件:基于图像生成、机器学习技术,市场规模数十亿美元,快速生成个性化室内设计方案。 9. Amper Music:运用机器学习、音频处理技术,市场规模数亿美元,协助音乐创作者进行创作。 10. 松果倾诉智能助手:采用自然语言处理、情感分析技术,市场规模数亿美元,提供情感支持和建议。 11. 小佩宠物智能设备:基于传感器数据处理、机器学习技术,市场规模数十亿美元,实时监测宠物健康状况。 12. 马蜂窝智能行程规划:借助数据分析、自然语言处理技术,市场规模数十亿美元,根据用户需求生成个性化旅游行程。
2025-02-11
视频生成
视频生成是当前 AIGC 领域的一个重要方面,以下是关于视频生成的详细介绍: 一、AIGC 概述中的视频生成 以生成方式划分,当前视频生成可分为文生视频、图生视频与视频生视频。视频生成涉及深度学习技术,如 GANs 和 Video Diffusion,现在的主流生成模型为扩散模型(Diffusion model)。视频生成可用于娱乐、体育分析和自动驾驶等各种领域。 视频生成经常与语音生成一起使用。用于语音生成的模型可以由 Transformers 提供,可用于文本到语音的转换、虚拟助手和语音克隆等。这类 Generative AI 用于生成音频信号,常用的技术包括循环神经网络(RNNs)、长短时记忆网络(LSTMs)、WaveNet 等。 二、具有代表性的海外项目 1. Sora(OpenAI):以扩散 Transformer 模型为核心,能够生成长达一分钟的高保真视频。支持文本生成视频、视频生成视频、图像生成视频,被定位为世界模拟器,在文本理解方面有出色表现,还能在单个生成的视频中创建多个镜头,保留角色和视觉风格。 2. Genie(Google):采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数,被定位为基础世界模型,可通过单张图像提示生成交互式环境。 3. WaveNet(DeepMind):一种生成模型,可以生成非常逼真的人类语音。 4. MuseNet(OpenAI):一种生成音乐的 AI 模型,可以在多种风格和乐器之间进行组合。 5. Multilingual v2(ElevenLabs):一种语音生成模型,支持 28 种语言的语音合成服务。 三、生成带有文本提示和图像的视频 在 Advanced 部分,您可以使用 Seed 选项添加种子编号,以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。选择 Generate 即可生成。 四、PixVerse V2 的使用教程 1. 输入提示词:如无图片上传,可忽略上传图片步骤。 2. 选择视频时长:支持 5s 和 8s 的视频生成。 3. 添加新片段:在添加新片段模式下,所有 Scene 画面风格都会与 Scene 1 保持一致,如 Scene 1 有图片,则会参考 Scene 1 中的图片风格。 添加 Scene 2:点击“Scene 1”旁边的“+”,为视频添加第二个片段。 编辑 Scene 2:在 Scene 2 中,您可以为 Scene2 输入不同于 Scene 1 的提示词,其它操作与之前相同。 编辑其它 Scene:重复以上步骤,您可以为视频添加多个 Scene,最多支持 5 个 Scene 的同时生成。 4. 生成视频:点击图标生成视频。每次生成需要花费 30 Credits,且默认将所有片段拼接在一起,不支持单片段下载。 5. 编辑生成的视频:点击视频进入编辑页面。 编辑视频:视频下方分别为角色、环境、动作。如生成的视频不满意,您可从相应的下拉选项中选择想要的效果。 编辑多个 Scene:上方为进度条,通过点击切换 Scene,可一次性对多个 Scene 进行编辑后一起生成。 生成视频:对所有 Scene 编辑完成后,点击“Create”,可重新生成视频。未修改的 Scene,再次生成时也会改变,不会与之前生成的视频保持一致。
2025-03-15
图生视频
以下是关于图生视频的相关信息: 什么是图生视频: 输入一张图片和相应的提示词,清影大模型会将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 图生视频的两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,可采用分辨率提升工具将图片变清晰。 2. 提示词要【简单清晰】。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确您想动起来的【主体】,并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确【主体】的描述。 常见的图生视频模型(从高到低排序)及特点: 1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 2. luma 1.6:画面质量挺好,但是太贵了。 3. 可灵 1.6 高品质:YYDS! 4. 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!! 8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 9. pixverse v3 高品质:pinverse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 PixVerse V2 使用教程: 1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-03-15
动画音效ai,用于生成视频中的特殊音效,比如呼吸声,爆炸声,脚步声等等
以下是关于动画音效 AI 用于生成视频中特殊音效(如呼吸声、爆炸声、脚步声等)的相关信息: 1. 11Labs AI 音效:可以在一段提示语中放入不同画面的描述音效来生成一整个视频音效,但目前可用性有待提高,一次生成可能有 2 3 条不能用。实际操作中,分开画面来做音效合成更方便调整。例如 20s 视频可分为 5 个不同的音效合成,如城市背景噪音、无声的脚步声、电子嗡嗡声、心跳加速、警笛声等。 2. 游戏中的生成式 AI 革命:音效是 AI 的一个具有吸引力的开放领域。已有学术论文探讨在电影中生成“现场效果音”(如脚步声)的想法,但在游戏中的商业产品尚属稀少。游戏中传统的音效生成和管理繁琐且重复不真实,使用实时的生成性 AI 模型来制作现场效果音可以在飞行中生成适当音效,每次略有不同,并能根据游戏参数响应。 3. 喂饭级教程:在视频制作中,音效库可以通过搜索框输入关键词(如开门声)来选择合适的音效试听并添加到音轨。
2025-03-15
在使用comfyUI制作ai视频时,如何减小频闪
很抱歉,您提供的内容中没有关于在使用 ComfyUI 制作 AI 视频时如何减小频闪的相关信息。建议您检查 ComfyUI 的设置选项,看是否有与视频帧率、显示刷新率相关的设置,适当调整这些参数可能有助于减小频闪。同时,确保您的硬件设备(如显卡、显示器)性能良好且驱动程序为最新版本,也可能对解决频闪问题有所帮助。
2025-03-15
如何让ai帮我写短视频脚本
以下是一些让 AI 帮您写短视频脚本的方法: 1. 指令逻辑: 自己给出开头,让 AI 知道结尾,避免模糊式提问,如“小王,写一篇自律的报告给我”。 提供内容的上半部,让 AI 撰写下半部,并包含必要内容。 将生成的内容以不同写作技巧、强硬转换风格,多滚动几次,写出多样版本与风格,降低初稿修改时间。 2. 反问法:让 AI 问您问题,能发现它思考更仔细,也能了解其逻辑并修正。 3. 制作技巧: 使用 Fanbook 中的 niji6 模型及sref 指令,确定视频风格一致性,选择 16:9 尺寸。 根据主题确定风格和时长,设定故事主线和镜头。 按照场景、地点、镜号、画面描述、台词、音效等维度填充分镜头,精简人物对话,提炼重点。 借助语言大模型获取画面灵感,多提问、多尝试。 4. 故事来源: 原创(直接经验):自身或周围人的经历、做过的梦、想象的故事等。 改编(间接经验):经典 IP、名著改编、新闻改编、二创等。 5. 剧本写作: 编剧有一定门槛,不能单纯套剧作理论和模版,要多写多实践,再看书总结经验,循环往复。 短片创作可从自身或朋友经历改编入手,或对短篇故事进行改编。 多跟别人讨论故事,听取感受。
2025-03-15
如何做AI数字人,我想做视频,但是不想真人出镜
以下是制作 AI 数字人视频且不想真人出镜的方法: 1. 在显示区域,拖动背景图的一个角,将图片放大到适合的尺寸,比如覆盖视频窗口,并将数字人拖动到合适的位置。 2. 增加字幕:点击文本 智能字幕 识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。 3. 至此,数字人视频就完成了。点击右上角的“导出”按钮,导出视频以作备用。 4. 如果希望数字人换成自己希望的面孔,需要用另一个工具来进行换脸。 此外,还有以下相关信息: 无需真人模特,只需上传产品图片,数字人即可手持产品进行口播展示。支持语音和口型同步,动作、姿势定制,提供 1000+多国家数字人模特,覆盖全球 28+种语言,快速生成产品宣传视频,省去拍摄烦恼。测试视频效果已接近成熟,嘴型部分仍需微调。在线体验: HeyGen 与 Sora 集成推出全新数字人技术,利用 AI 创建完全虚拟的数字人,动作、表情灵活可调,无需真人模特和重复拍摄,适配无限时长视频制作。
2025-03-15
有没有成熟的ai制作宣传海报的工作流
以下是一些成熟的 AI 制作宣传海报的工作流: 1. 确定需求场景:例如想在社交平台发布内容时,为了获得更多点赞,需要有吸引力的图片;网上图片质量差且易撞图,自己相册中的照片不合适等情况。 2. 大致流程: 主题与文案:确定海报主题,借助 ChatGPT 等文本类 AI 工具完成文案。 风格与布局:选择想要的风格意向,根据文案和风格灵活调整画面布局,背景不一定空白。 生成与筛选:使用无界 AI 输入关键词,生成并挑选满意的海报底图。 配文与排版:将上述素材进行合理排版,得到成品。排版可参考 AIGC 海报成果。 此外,还有一些相关案例: 1. 游戏 PV《追光者》:灵感来源于《艾尔登法环》、《黑神话悟空》等游戏开场片,加入佛教元素。结合 ChatGPT 进行故事框架创作,使用 MJ 绘图、SD 重绘,制作深度图以及视频、AI 抠图,Aive 尝试制作背景音乐,微软 AI 制作旁白。除撰写故事框架外,生图及后期配音约用 7 天完成。 2. Junie 首部 AI 长电影:在传统制作流程中融入 AI 工具,如在 Discord 平台创作,依据 Notion 里的制作安排和细分章节剧本推进。用到多种 AI 工具,包括 AI 图像生成(Stable Diffusion/Midjourney v5.2/DALL·E)、AI 动画(Pika/Runway/Deforum)、口型同步(DID)、AI 旁白(ElevenLabs)、剪辑(Premiere)、文字翻译(ChatGPT)等,也会结合 3D 技术、AE 以及实拍等传统手段。
2025-03-15
制作海报
以下是关于制作海报的相关内容: 离谱艺术展策划 主题:苍山离谱艺术展 形式:在大理苍山的松林间布置离谱植物和生物,每个生物都有 bot 交互,供大家寻找和交流。 参与方式: 大家一起共创。 建立投稿,投票选出排名靠前的创作。 捏 bot 小组。 文案和策展小组。 线下干活小组(找大理在地的同学一起参与和帮助)。 作品征集提交: 图片:分辨率建议不低于 1920x1080 像素(1080p),尺寸为 A4 尺寸(210mm x 297mm)或更大,便于制作海报。 人物小传:字数建议在 100200 字之间,简明扼要地介绍创作者或作品背景。 Bot 捏制:使用 Coze 或其他大型模型构建 AI 聊天框,确保与作品主题相匹配。 网站建设:在社群接龙小伙伴中寻找合适的人选,大聪明提供网站模板,简化建设流程。 海报制作:在海报上加入离谱村的标志和二维码,考虑将二维码单独打印,以便于更新和替换。 配合周边物料:补充宣传海报等周边物料,增强宣传效果。 寻找场地:在苍山山林间寻找合适的展览场地,考虑空间大小、交通便利性等因素。 用 AI 快速做一张满意的海报 需求场景:当想发条朋友圈/微博/twitter 等,干巴巴的文字不易获赞;百度图片的图质量差且易撞图;相册里的照片尴尬等情况。 大致流程: 主题与文案:确定海报主题后,可借助 ChatGPT 等文本类 AI 工具协助完成文案。 风格与布局:选择想要完成的风格意向,背景不一定是空白的,可根据文案和风格灵活调整画面布局。 生成与筛选:使用无界 AI,输入关键词,生成并挑选一张满意的海报底图。 配文与排版:将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 海报成果。 母亲节海报制作解析 步骤拆解:分为背景、红色标注的三个图层以及文字部分。 背景制作:粉色渐变背景,使用 MJ 制作,提示词如“Closeup of a pink soft blob shape against a blurred background in pastel colors with gentle light in a high resolution,hyper realistic style.ar 9:16”等。康乃馨、粘土母子使用 MJ 制作,PS 或美图秀秀抠图。有了上述三个素材,在 PS 中简单排列,使用渐变工具在图片右下角加一个粉色到透明的渐变。 前景制作:使用字体工具加上中文和英文,使用形状工具画上爱心;使用文字工具在画面左侧加上文字,使用白色到透明渐变填充;使用文字工具给画面加上装饰文字;若觉得康乃馨喧宾夺主可删除,以母子作为画面核心,多一些留白效果更好。
2025-03-15
AI制作视频的工具
以下是一些可用于将小说制作成视频的 AI 工具及制作流程: AI 工具: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,能生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,以“AI 特效挑战 001 杯子里的鲸鱼”为例,选用视频制作工具时,如使用可灵 AI,可参考以下步骤: 1. 打开可灵 AI,网址:https://klingai.kuaishou.com/ ,点击图生视频,上传第一张图片。输入提示词时一定需要加“固定镜头”。 2. 按照上述做法制作第二张图片的动态效果,得到两段视频。 视频剪辑方面(以 PC 端为例): 1. 右上方点击抠像按钮。 2. 鼠标选中要处理的素材。 3. 把带绿幕的素材先放入下面主视频轨道。 4. 打开剪映,导入需要的三段素材。 5. 把带绿幕的素材和下方黑色咖啡的素材合成一个片段。 6. 点击新建的复合片段,调整对应的参数,最后完成。
2025-03-14
听音乐制作画面的AI
以下是关于听音乐制作画面的 AI 的相关内容: 1. 工具使用: 生成音乐:Suno 能够根据用户对音乐的具体描述生成音乐作品,为视频增添独特音乐元素,提升艺术性和观赏性。 人物对白配音:即开即用的 ondoku,输入文字可快速得到配音文件。 后期合成:主要使用剪映,对 AI 生成的视频进行截取和补充,合成时可进行画面匹配并调整音乐协调性。 视频轨道层包括台词层、效果层(关键帧、蒙版)、视频画面(AI 生成的视频画面加闭幕)、人声台词、音效、背景音乐。 2. 分镜创作: 歌曲创作完成后出分镜脚本,因 AI 视频制作特殊性,分镜直接决定最终视频呈现效果。 画面生成分为三类:有歌词部分用 midjourney 生成;无歌词部分如前奏用 SD 制作字体设计;转场用 deforum 制作。 让 gpt 按每段歌词生成 mj 提示词,作为画面参考并调整编写。 如开篇构思通过弹古筝女子引入,通过多种工具调整构图。 3. 其他方面: AI 抠图:可直接抠图或在 PS 里操作,图片上传即可,用于制作素材和氛围动画。 声音素材: 背景音乐:Aive 尝试制作背景音乐,部分团队成员用工具生成,因要求高,还利用分离人声的 AI 软件处理音乐。 旁白:使用微软 AI 语音,其声音库支持 147 种语言,还有定制声音选择。
2025-03-14
听音乐制作画面
以下是关于听音乐制作画面的相关内容: 在《AI 你·南京》AIGC 城市宣传 MV 全流程制作中,歌曲创作完成后进行分镜脚本创作。由于 AI 视频制作的特殊性,分镜直接决定最终视频呈现效果。根据音乐生成画面分为三类:有歌词部分用 midjourney 生成,无歌词部分如前奏用 SD 制作字体设计,转场用 deforum 制作。同时,让 gpt 按每段歌词生成 mj 提示词,虽只是大概参考,仍需调整编写。如开篇构思融入古筝和弹古筝女子,通过多种方式解决画面生成中的问题。 在 KEEN 的离谱村系列 2 音乐制作中,影片作者为 KEEN,配乐的主要 Prompt 设计由 GPT4 完成,音乐制作由 Suno 负责。提供了相关历史记录、操作指北及配乐的链接。 在桂大羊的 AI 视频短片制作中,使用 Suno 生成音乐,共生成 30 首歌曲并挑选符合视频节奏的背景音乐。人物对白选择用 ondoku 配音,后期合成主要用剪映,会根据情况重新生成画面视频补充,视频轨道层包括台词层、效果层、视频画面、人声台词、音效、背景音乐等。
2025-03-14
comfyui工作流搭建基础
以下是 ComfyUI 工作流搭建的基础步骤: 1. 准备加载大模型的节点(load 节点):在工作区鼠标右键点击,选择“Add Node”,然后依次选择“loaders”和“Load Checkpoint”,接着选择对应的模型,点击“Ckpt_name”下拉选择对应的模型。 2. 加载 Conditioning(条件):在工作区鼠标右键点击,选择“Add Node”,然后选择“Conditioning”,再选择“CLIP TEXT Encode”。这里需要输入正向和反向提示词,相同节点可使用快捷键 Ctrl+C 和 Ctrl+V 复制粘贴。 3. 添加采样器:这部分和 WEB_UI 的设置类似,包括采样器、迭代步数、CFG 等。需要注意的是,seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。 4. 加载 Latent:可以设置图片的宽、高和批次,设置方式与 WEB_UI 相同。 5. 加载 VAE:操作与 WEB_UI 加载 VAE 相同。 6. 加载保存图片的节点。 7. 串联节点:节点分为起始节点、最终输出节点和过程执行节点。首先,checkpoint 加载器中模型选择好可直接使用,CLIP 对应链接需要的两个条件(正向提示词/负向提示词),VAE 直接连接对应的 VAE。然后将正向提示词、负向提示词链接到对应的采样器节点,latent 直接链接空 Latent。串联完毕后即得到最简单的 ComfyUI 工作流。 此外,ComfyUI 共学快闪的飞书学习群中有众多关于 ComfyUI 的学习内容,如王蓉的基础搭建和转绘、唯有葵花向日晴的基础教程、工作流开发和实际应用场景等。
2025-03-15
写一个技术方案,列一个基础大纲
由于您没有提供具体的技术方案主题和相关要求,以下为您提供一个通用的基础大纲模板,您可以根据实际情况进行补充和完善: 一、项目概述 1. 项目背景和目标 2. 项目范围和限制 二、技术需求分析 1. 功能需求 2. 性能需求 3. 安全需求 三、技术选型 1. 开发语言和框架 2. 数据库选择 3. 服务器和部署环境 四、系统架构设计 1. 整体架构 2. 模块划分和接口设计 五、数据管理 1. 数据来源和采集 2. 数据存储和处理 3. 数据备份和恢复 六、开发计划 1. 里程碑和时间节点 2. 任务分解和人员分配 七、测试计划 1. 测试类型和方法 2. 测试用例设计 八、运维和支持 1. 系统监控和维护 2. 故障处理和应急预案 九、预算和资源需求 1. 人力成本 2. 硬件和软件采购成本 十、风险评估和应对 1. 技术风险 2. 管理风险 3. 外部风险 希望这个大纲对您有所帮助,若您能提供更具体的信息,我可以为您生成更详细、更具针对性的技术方案大纲。
2025-03-11
职场打工人,没有编程基础。怎么在3个月内学习运用好ai?并列出详细计划
以下是为没有编程基础的职场打工人制定的在 3 个月内学习运用好 AI 的详细计划: 第一个月: 了解 AI 编程的基本概念和应用场景,通过相关文章和案例建立初步认知。 借助 AI 工具完成一些简单的任务,例如使用一些现有的 AI 插件来辅助工作,如 IAiUse Language Translator Settings、i18n Nexus 等。 第二个月: 学习 Python 基础,包括基本语法规则(如变量命名、缩进等)、数据类型(如字符串、整数、浮点数、列表、元组、字典等)、控制流(如条件语句、循环语句)。 掌握函数的定义和调用,理解参数和返回值的概念,以及作用域和命名空间。 第三个月: 深入学习 Python 的模块和包,学会导入标准库中的模块和第三方库,以及使用包来扩展程序功能。 了解面向对象编程的基本概念,包括类和对象、属性和方法、继承和多态。 学习异常处理,理解异常的工作原理,掌握使用 try 和 except 语句处理错误。 掌握文件操作,包括文件读写、文件与路径操作。 在学习过程中,要多实践、多练习,结合实际工作中的需求进行应用,不断提升自己运用 AI 的能力。
2025-03-11
我应该如何系统学习本站的内容,以应用为主,基础理论为辅
如果您想系统学习本站内容,以应用为主、基础理论为辅,可以参考以下步骤: 基础理论方面: 了解人工智能、机器学习、深度学习的定义及其之间的关系。 简要回顾 AI 的发展历程和重要里程碑。 掌握数学基础,包括统计学基础(熟悉均值、中位数、方差等统计概念)、线性代数(了解向量、矩阵等基本概念)、概率论(基础的概率论知识,如条件概率、贝叶斯定理)。 算法和模型方面: 对于监督学习,了解常用算法,如线性回归、决策树、支持向量机(SVM)。 熟悉无监督学习中的聚类、降维等算法。 了解强化学习的基本概念。 评估和调优方面: 学会如何评估模型性能,包括交叉验证、精确度、召回率等。 掌握使用网格搜索等技术优化模型参数的方法。 神经网络基础方面: 理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 关于知识库的使用,以 Agent 板块为例: 链接: 用法:从下往上看,一个一个点进去,都有视频。 注意事项:共学都有视频,都是手把手从注册开始的教学,不会就多看几遍,基本保障一个工具能调通、一个 Agent 能搭好。确实内容有点多,点进去看看哪个工具您听过就从哪个工具开始,不然太累。 链接: 用法:看了一些视频之后,您就知道您要看理论还是应用了,找到导航,想看哪里点哪里。 备注:智能千帆、阿里云百炼都是有视频的,其余没有视频。 注意事项:内容较多,您如果都看到这里了,就要考虑聚焦了,先挑一个,开始手把手一起做起来,看看能不能持续用起来,只要您开始用起来,这事儿就成啦!快捷菜单找不到的话,看这里。
2025-03-10
怎样从零基础学习ai绘画
以下是从零基础学习 AI 绘画的一些建议和资源: 1. 学习 Stable Diffusion 相关知识: 了解 Stable Diffusion 系列资源。 深入浅出理解其核心基础原理,包括模型工作流程、核心基础原理、训练全过程等。 解析核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的流程,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 等搭建推理流程,并查看生成示例。 探索 Stable Diffusion 经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括了解训练资源、初识训练过程、配置训练环境与训练文件。 2. 体验《AI 绘画助手》: 它是一位专业且贴心的 AI 绘画学习导师。 能将复杂的知识用通俗易懂的语言解释清楚,让您轻松理解背后机制。 熟悉市面上流行的 AI 绘画工具,如 DALLE、MidJourney、Stable Diffusion 等,并介绍其使用步骤和独特之处。 擅长风格迁移技术、生成对抗网络在图像生成和编辑中的应用,以及获取高分辨率精美图像的方法。 拥有丰富的实战案例经验,能为您答疑解惑,并规划学习路径。 3. 参考他人经验: 如二师兄的经历,他从二月开始接触 SD 秋叶安装包和教学视频,三月啃完 SD 教程并开始炼丹,四月尝试 AI 变现项目,五月加入 Prompt battle 社群学习 Midjourney。 希望以上内容对您有所帮助,祝您在学习 AI 绘画的道路上取得成功!
2025-03-10
Manus的基础大模型是什么?
Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。它区别于传统聊天机器人(如 ChatGPT),具备自主规划、执行复杂任务并直接交付完整成果的能力,被称为“首个真干活的 AI”。 Manus AI 代理工具的具体技术架构主要基于多智能体(Multiple Agent)架构,运行在独立的虚拟机中。这种架构通过规划、执行和验证三个子模块的分工协作,实现了对复杂任务的高效处理。具体来说,Manus AI 的核心功能由多个独立模型共同完成,这些模型分别专注于不同的任务或领域,如自然语言处理、数据分析、推理等。这种多模型驱动的设计不仅提高了系统的鲁棒性和准确性,还增强了其处理复杂任务的能力。 Manus AI 的技术架构还包括以下几个关键组件: 1. 虚拟机:Manus AI 运行在云端虚拟机中,用户可以随时查看任务进度,适合处理耗时任务。 2. 计算资源:Manus AI 利用计算资源生成算法,用于筛选简历等具体任务。 3. 生成物:Manus AI 能够生成各种类型的输出,如文本、表格、报告等。 4. 内置多个 agents:Manus AI 通过内置多个智能体,实现了任务的分解和协同工作。 此外,Manus AI 还采用了“少结构,多智能体”的设计哲学,强调在数据质量高、模型强大、架构灵活的情况下,自然涌现 AI 的能力。这种设计使得 Manus AI 在处理复杂任务时更加高效和准确。Manus AI 的技术架构通过多智能体协同工作、虚拟机运行和生成物输出等机制,实现了对复杂任务的高效处理和高质量输出。
2025-03-06