以下是使用 AI 生成海报和视频的方法:
时间紧任务重,如何用智谱AI表格插件帮我完成?下面的例子,我作为一个打工人,近期有很多活动上线,需要我设计文案并配上视频!而我能参考的只有过去各式各样的活动海报[heading3]第一步,用AI插件理解图片[content]上传参考的海报图片,用AI内容生成插件理解。创建表格列时,选择字段捷径,在AI中心找到智谱AI的内容生成插件。使用插件,配置如下:选择提示文本,提示词参考:详细描述下海报中的内容;选择上传图片的所在列;选择模型glm-4v。很快AI就帮我把海报内容整理出来,并填充到对应的列中。[heading3]第二步,生成视频的指令[content]用飞书自带的插件总结宣语,生成视频的prompt指令。有了海报内容参考,我可以使用飞书自带的字段插件进行总结成活动宣传语。自定义的总结要求:任务:根据活动海报的描述文案,总结为一句话的活动宣传语。#要求:删除日期时间;把活动的品牌统一更换为“智谱AI”;文案风格采用小红书风格,要有鲜明的记忆点;文案字数尽量不超过50字。生成宣传语的效果看起来还可以:然后再使用飞书自带的自定义AI插件,来给我生成视频所需的prompt指令。输入指令如下,文案引用刚才的总结宣传语:任务:根据文案联想,设计一个定格卡通画面,画面以静态描述为主。#文案:<引用字段>#要求:画面描述中,删除品牌词,删除日期、链接、文字;画面描述开头包含“卡通风格,镜头从远推进:”;描述文案用英文生成,适合模型指令的格式,字数不超过100个字。生成指令建议用英文,视频风格我采用了卡通的,不需要太长的描述,反正AI视频本身也有指令优化。
In the Advanced section,you can use the Seed option to[add a seed number](https://helpx.adobe.com/firefly/generate-video/generate-video-clips/generate-video-faq.html#what-is-a-seed)that helps start the process and controls the randomness of what the AI creates.If you use the same seed,prompt,and control settings,you can regenerate similar video clips.在Advanced部分,您可以使用Seed选项[添加种子编号](https://helpx.adobe.com/firefly/generate-video/generate-video-clips/generate-video-faq.html#what-is-a-seed),以帮助启动流程并控制AI创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。Select Generate.选择Generate(生成)。
[heading2]总结多模态大模型及相关应用多模态大模型的架构和原理:基于大圆模型,能识别页面组件结构和位置绝对值信息,并与组件、文本映射。由解码器、backbone、Generator等部件组成,左侧多模态理解,右侧生成输出。stable diffusion模型原理:是生成模型,通过加噪和去噪实现图像的正向扩散和反向还原,解决潜在空间模型中的速度问题。stable diffusion的应用场景:包括带货商品图生成、模特服装展示、海报生成、装修设计等。吉梦AI和吐司平台的使用体验:吉梦AI提供AI视频生成等能力,通过简单提示词生成图像,对数字体有专项场景训练;吐司是类似的在线生成平台。模型训练:训练模型需要大量图像数据和标签化处理,后续课程有老师专门分享。AI图像与视频生成技术介绍李不李波还原stable diffusion Web UI界面并提供人性化交互:李不李波基本还原了stable diffusion的Web UI界面,提供更人性化交互,后续有老师分享从选择固定模型到快速生成图片的内容,还介绍了正向和反向提示词等模型参数。吐司具备多种AI能力:吐司和李不李波类似,有模型、在线训练、上传模型工作流等功能,可通过输入提示词生成图片,如生成了青花瓷工艺相关的图片。AI视频生成原理基于特定架构:AI视频主要基于Sara的整体架构,采用diffusion Transformer架构,以扩散模型通过随机造点、加噪和去噪得到连续图像帧,输入视频可看成若干帧图片,经处理后生成视频。Meta视频生成模型的特点:Meta的视频生成模型能生成视频和声音,可替换视频中的物体和人脸,其把diffusion架构换成纯transformer架构,基于LLAMA3训练,与diffusion在CLIP等方面有区别。