直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

SD生成视频的技术难点

回答

SD 生成视频的技术难点主要包括以下方面:

  1. 稳定性和闪烁问题:目前基本所有的 SD 生成视频都存在这方面的问题,不过上周发布的一个方案在很大程度上解决了此问题。该方案包括使用适应性扩散模型生成关键帧,并应用分层交叉帧约束来强制形状、纹理和颜色的一致性;通过时间感知的补丁匹配和帧混合将关键帧传播到其他帧。
  2. 图像处理:如在生成视频时,抠图中间可能处理不彻底,最好先通过 PS 扣好模板再绘制背景。
  3. 操作方法:生成视频的方法包括粗暴地替换,或者一帧一帧拆开然后利用 ControlNet + 局部重绘功能,每一帧做取模重绘,并尽量在同一语义下批量生成。
  4. 关键词和反关键词设置:输入关键词如奶油的英文单词“Cream + Cake”(加强质感),反关键词如“Easynegative”(负能量),反复刷机以得到满意效果。
  5. 模型和参数设置:例如选择合适的模型、设置采样器、CFG 尺度、种子、尺寸、VAE 等参数。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:SD 做中文文字-持续更新中

Nenly同学的视频教程来了:【“牛逼”的教程来了!一次学会AI二维码+艺术字+光影光效+创意Logo生成,绝对是B站最详细的Stable Diffusion特效设计流程教学!AI绘画进阶应用-哔哩哔哩】https://b23.tv/c33gTIQ还有个群友根据下面的教程自己做了个视频教程非常详细1.将中文字做成白底黑字,存成图片样式2.使用文生图的方式,使用大模型真实系,作者用的realisticVisionV20_v20.safetensors[e6415c4892]ControlNet预设置3.输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。4.同理可输出C4D模型,可自由贴图材质效果,3d,blender,oc rendering5.如果希望有景深效果,也可以打开depth(增加阴影和质感)6.打开高清修复,分辨率联系1024以上,步数:29-60本来想方一个b站视频,但是没有按照上面的实测,等看完之后再推荐当然https://firefly.adobe.com/也可以,但是sd感觉可操控性更强,尤其是中文字体

AIGC Weekly #26

现在基本所有的SD生成视频都存在稳定性和闪烁的问题,只是有的多有得少。上周发布的这个方案看起来很大程度解决了这个问题。关键帧翻译和完整视频翻译。第一部分使用适应性扩散模型生成关键帧,并应用分层交叉帧约束来强制形状、纹理和颜色的一致性。第二部分通过时间感知的补丁匹配和帧混合将关键帧传播到其他帧。最重要的是与现有的图像扩散技术兼容,使框架能够利用它们,例如使用LoRA自定义特定主题,并使用ControlNet引入额外的空间引导。过几天应该会开源可以到时候关注一下。

我用Stable Diffusion做电商!

Steps:20,Sampler:DPM++ 2M Karras,CFG scale:7,Seed:2728494159,Size:362x486,Model hash:7c819b6d13,Model:majicmixRealistic_v7,VAE hash:c6a580b13a,VAE:vae-ft-mse-840000-ema-pruned.safetensors,Denoising strength:0.75,Clip skip:2,Mask blur:2,ControlNet 0:"Module:none,Model:control_v11p_sd15_openpose[cab727d4],Weight:1,Resize Mode:Crop and Resize,Low Vram:False,Processor Res:512,Guidance Start:0,Guidance End:1,Pixel Perfect:True,Control Mode:My prompt is more important",Version:v1.6.0我这里抠图中间抠得不是很彻底,最好是ps扣好模板让后画背景,总之这对SD来说小菜一碟。这样就可以做自己的淘宝模特啦。面向不同的人群市场可以做不同的模特,不用请人了哦!同样地这种一点点修的方法可以用在视频上:生成视频的方法有两种:一种是很粗暴地替换也可以一帧一帧拆开然后利用controlNet+局部重绘功能,每一帧做取模重绘。然后尽量同一语义下批量生成。

其他人在问
SD 在线上哪里可以使用?
以下是一些可以在线使用 SD 的地方: 1. 哩布哩布 AI:其在线 SD 界面与本地部署的界面区别不大,每天有一百次的生成次数,且已集成最新的 SDXL 模型。 2. stability AI 公司推出的 Clipdrop(https://clipdrop.co/stablediffusion):和 midjourney 的使用方法相似,输入提示词即可直接生成,每天免费 400 张图片,但需要排队,出四张图大概需要二三十秒的时间。
2024-11-22
SD 安装包
以下是关于 SD 安装包的相关内容: 一、Roop 插件安装 1. 安装时间较长,需耐心等待。安装好后,打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”并回车。 2. 在打开的 dos 界面中,粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),后台回复【SD】可在云盘下载。 3. 安装完成后,重新打开启动器,后台会继续下载模型,全程需科学上网。 4. 选用真实系模型“realisticVisionV20”,启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边参数和放大算法,点击生成。若人脸像素偏低,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。 5. 想要插件可添加公众号【白马与少年】回复【SD】。 二、SD 云端部署 1. 部署流程 浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,输入购买时设置的密码进入远程的 Windows 系统环境,安装显卡驱动、配置环境变量。 2. 安装显卡驱动 用内置的 IE 或下载 Chrome,打开英伟达网站,根据购买机器时选定的显卡型号、Windows 版本号下载对应的驱动并安装。 3. 配置环境变量 驱动安装完成后,复制驱动所在目录(一般是在「C:\\Program Files\\NCIDIA Corporation」),找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,在「系统变量」里的 Path 环境变量中新建并粘贴驱动安装地址保存。 4. 下载安装 SD 整合包 以秋叶的 SD 整合包为例,下载地址为:https://pan.baidu.com/s/1uavAJJdYYWhpnfjwQQDviQ?pwd=a123 ,提取码:a123。建议在服务器上安装提高下载速度的工具或有百度会员。安装后打开安装包一级目录,双击启动器运行依赖,安装完成后即可启动 SD。 三、Roop 换脸插件安装的其他步骤 1. 将 inswapper_128.onnx 文件移动到“sdwebuiakiv4\\models\\roop ”目录下(若没有该目录则创建)。 2. 将.ifnude 和.insightface 目录移动到 C:\\Users\\您的用户名目录下(用户名因人而异)。 3. 启动 webui,它会同步内部组件,可能需 5 30 分钟,耐心等待。加载完成后在浏览器打开,可在图生图、文生图中下面列表标签看到 roop V0.0.2。 特别提醒:此插件谨慎使用,切勿触犯法律。
2024-11-22
sd 人物的模样及服装等统一
以下是关于人物模样及服装的 SD 关键词描述: 人物类型:肌肉公主、舞者、啦啦队等。 性别:单人,包括女人和男人。 身体特征:有光泽的皮肤、苍白皮肤、白皙皮肤等。 头发样式:直发、卷发、波浪卷等。 头发颜色:挑染、内层挑染、头发内变色等。 头发长度:长发、很短的头发、短发等。 具体人物:初音未来、绫波(碧蓝航线)、比那名居天子、蛮啾(碧蓝航线)、爱宕、时崎狂三、洛琪希、西住美穗、星街彗星、时雨、蒂法·洛克哈特、中野一花、南达科他州(碧蓝航线)、白上吹雪、白井黑子、岛风等。 发型特点:身前,单侧编发,人妻发型;挑染,条纹发色;短碎发等。 面部特征:死鱼眼、晒痕、眼睛发光、垂耳(狗)等。
2024-11-20
SD 下载
以下是关于 SD 下载的相关内容: 1. 模型下载与安装: 二维码做好后,进入 SD 版块,需下载两个 SD 的 ControlNET 模型和一个预处理器。您可以添加公众号【白马与少年】,回复【SD】获取。 在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”路径下。 系统要求为 Win10 或 Win11。Win 系统查看配置:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格;查看电脑配置时,需满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达的显卡,显卡内存 4GB 以上。 配置达标可跳转至对应安装教程页。 如果不会科学上网,也可去启动器的界面直接下载模型。将下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角的模型列表中选择(看不到就点旁边的蓝色按钮刷新)。 2. 其他相关文件下载与放置: VAE 可直接在启动器里面下载,下载的 VAE 放在根目录的【……\\models\\VAE】文件夹。 Embedding 可在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2024-11-18
sd 下载
以下是关于 SD 下载的相关内容: 1. 模型安装设置: 二维码做好后,进入 SD 版块,需下载两个 SD 的 ControlNET 模型和一个预处理器。可添加公众号【白马与少年】,回复【SD】获取。 在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”路径下。 选择模型,填入关键词,设置迭代步数为 15,采样选择 DPM++ 2M Karras,图像大小设置为 768768。 2. SD 的安装: 系统需为 Win10 或 Win11。 Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查电脑能否带动 SD,需满足 3 个要求(推荐):电脑运行内存 8GB 以上,是英伟达的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),查看电脑运行内存和显卡内存(显存)。8GB 运行内存可勉强运行 SD,推荐 16GB 以上运行内存;4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标可跳转至对应安装教程页: 。 配置不够可选择云端部署(Mac 也推荐云端部署): 。 备选:SD 难的话,可先试试简单的无界 AI: 。 3. 软件原理傻瓜级理解: 不会科学上网,可在启动器界面直接下载模型,下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角模型列表中选择,看不到就点旁边蓝色按钮刷新。 VAE 相当于给模型增加提高饱和度的滤镜和局部细节微调,有的大模型自带 VAE,可不用再加。VAE 可在启动器里下载,放在根目录的【……\\models\\VAE】文件夹下。 Embedding 是提示词打包功能,可在 C 站通过右上角筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。 LORA 功能强大,可将人物或物品接近完美复刻进图像中,使用时需注意版权和法律问题。
2024-11-18
SD好的模型分享
以下是为您分享的关于 SD 模型的相关内容: 对于 SDXL 的 ControlNet 模型中的 Canny 硬边缘模型,有不同型号,如 4080ti 笔记本测试中,12G 显存下,sdxl base+refiner 模型,使用 diffusers 的 2.5Gfull 模型绘制 10241024 尺寸图片需 2 分 57 秒,320Mb 的 small 模型用时 34s,质量差距不大但时间优势明显。其他作者如 kohya 的用时 33 秒,更接近真实质感。sai 的 128lora 和 256lora 分别用时 39 秒和 1 分 08 秒,偏绘画感觉。t2i 的用时 34s,偏插画。关闭 refiner 能节省一半左右时间,平均 17 秒左右。 在 Depth 深度模型测试中,图形尺寸 6641024,diffusers 的 full 模型用时 2 分 48 秒,small 模型用时 23s,kohya 模型用时 42 秒,sai 模型用时 1 分 12 秒,sargezt 模型用时 1 分 52 秒。 用 Stable Diffusion 时,要先确定照片风格,如生成真人 AI 小姐姐可选用 chilloutmix 的大模型。部分常用大模型可在分享的链接中根据文件夹名称找到。文章第三部分会详细介绍模型下载位置和存放位置。 对于 ControlNet 中线条约束类的预处理器和模型,作者已整理好,如需获取可添加公众号【白马与少年】回复【SD】。同时作者还附上一张图帮助理解 ControlNet 模型的命名规则。
2024-11-17
AI剪辑视频的难点是什么
AI 剪辑视频的难点主要包括以下几个方面: 1. 软件协同与工程联通:如剪映无法协同工作,无法导出工程文件与其他软件进行工程联通,难以达到更好的商业化效果。 2. 声音运用:声音在影像制作中非常重要,但很多软件的音效库有限,复杂和真实的音效可能需要另外制作,且音乐商用需注意版权。 3. 人物镜头衔接:在 AI 生图转视频中,人物的多组镜头拼接时,画面不一致容易出戏,需要运用特定的镜头定律来加强联系。 4. 消除动图 PPT 的枯燥感:在 Luma 出现之前,动图 PPT 产生的枯燥感难以解决,即使 Luma 出现后可能依然存在,需要依靠强有力的演出和音乐音效来抵消。 5. 艺术表达:就艺术表达而言,AI 生成的声音与真人相比仍有很大差距。
2024-10-26
comfyui生成视频的技术难点
ComfyUI 生成视频的技术难点及相关内容如下: 运行 ComfyUI 并加载工作流:完成准备工作后运行 ComfyUI,默认版本存在不支持模型版本和 node 管理的问题,需安装 ComfyUI Manager 插件。再次运行 python main.py 会出现 Manager 菜单。工作流可下载后使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,最后在 ComfyUI 目录下的 output 文件夹查看生成好的视频。 显存溢出问题:若生成视频过程中出现显存溢出问题,需进一步处理。 ComfyUI 的特点:其核心在于自由和拓展,可自行调整以切合工作流甚至改造工作流,在 AI 发展迅速的时代保持灵活至关重要。能完成生成四格故事漫画、视频、写真、表情包、换脸、换装等,相关内容后续会一一讲解介绍。
2024-08-26
写清搭建的coze类的智能体用到了什么样的技术,难点在哪里,起到了什么样的效果,如果用类似的方法,可以完成什么样的工作。
搭建 Coze 类的智能体所用到的技术及相关情况如下: 技术:Bot 的创建部分包括 3 个自研插件及 4 个自研工作流,涉及人设与回复逻辑、变量记忆、长期记忆、数据库、开场白、用户问题建议、快捷指令、语音等功能。还包括通过 Docker 容器部署,接入如 chatgptonwechat(CoW)项目与微信取得关联。 难点:工作量最大且最具难度和挑战的部分是自研插件和工作流的搭建。 效果:实现了多模态资讯的跨平台推送。 类似方法可完成的工作:工作流驱动的 Agent 搭建,如规划任务的关键方法,包括总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法;实施时分步构建和测试 Agent 功能,在 Coze 上搭建工作流框架,详细配置子任务节点并验证可用性;完善时全面评估并优化 Agent 效果,通过反复测试和迭代达到预期水平。例如可以搭建“结构化外文精读专家”Agent 等。
2024-08-26
AI要继续向前发展,主要的技术难点和挑战是什么?
AI 要继续向前发展,面临着以下主要的技术难点和挑战: 1. 快速迭代带来的压力:AI 迭代速度极快,如一年或两年迭代的内容,当下一个月就可能发生变化,这使得相关从业者跟进步伐较为吃力。 2. 基建需求:如在 2024 年需搞好大模型、算力等方面的基建工作。 3. 应用端的发展:需要促进应用端的繁荣。 4. 技术推广:虽然在特定游戏环境中 AI 取得显著成果,但将其推广到更广泛、复杂的现实世界应用面临诸多挑战。例如,游戏环境通常封闭可控,而现实世界充满未知和不确定性;游戏中的胜利条件明确一致,而现实生活中的目标可能多样、冲突或随时间变化。 5. 共创模式的挑战:包括协调复杂、知识产权保护、利益分配、责任归属与质量控制等。
2024-08-16
推荐下可以把youtube 视频内容转成文字的工具
以下是一些可以将 YouTube 视频内容转成文字的工具: 1. YouTube Summary with ChatGPT:这是一个插件,能帮助获取 YouTube 视频的语音转文字内容,并复制到 ChatGPT 中转化为摘要文章。来源: 2. Captiwiz:不仅能将音频转录成文本,还能为视频添加字幕、音乐和动态表情符号等。来源: 3. Scribe:可以将 YouTube 视频转换为文章,不是单纯的语音转字幕,而是重新用文章形式组织语言并排版。来源: 此外,虽然 ChatGPT 本身无法直接总结 YouTube 视频,但有些免费服务可以帮助转录或下载视频的自动生成字幕,然后保存这些文字让 ChatGPT 帮忙转化为简洁要点。
2024-11-23
那个文生视频或图生视频的AI可以生成融合变化的效果
以下是关于文生视频或图生视频的 AI 生成融合变化效果的相关信息: 在人工智能技术迅速发展的当下,AI“词生卡”技术兴起,它将文字描述转化为视觉图像,重塑了创意产业格局。AI 的多模态输出能力已基本成型,包括文生文、文生图、文生码、文生视频、图生视频等,但大多在某个维度能力强,跨界融合还不够。 从生成方式分类,AI 视频生成包含: 1. 文生视频、图生视频,如 Runway、Pika labs、SD + Deforum、SD + Infinite zoom、SD + AnimateDiff、Warpfusion、Stability Animation 等。 一些热门产品如 Luma AI,其 Dream Machine 目前支持 txt2vid 文生视频和 img2vid 图生视频两种能力,8 月底最新发布的 Dream Machine 1.5 增强了提示词理解能力和视频生成能力。Luma AI 的 img2vid 生成效果在多方面表现出色,如生成时长较长、运动幅度大、能产生相机多角度位移、运动过程一致性保持较好、分辨率高且有效改善模糊感等。
2024-11-23
怎么用ai制作由人变成动物的视频
以下是使用 AI 制作由人变成动物视频的方法: 一、创建视频内容 1. 准备内容 先准备一段视频中播放的内容文字,可以是产品介绍、课程讲解、游戏攻略等任何您希望推广让大家了解的文字。 您也可以利用 AI 来生成这段文字。 2. 制作视频 使用剪映 App 对视频进行简单处理。电脑端打开剪映 App,点击“开始创作”。 选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号,为视频添加一个文字内容的轨道。 在界面右侧将准备好的文字内容替换默认文本内容。 二、生成数字人 1. 生成数字人 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,如“婉婉青春”。 选择数字人形象时,软件会播放其声音,可判断是否需要,点击右下角“添加数字人”,软件会根据提供的内容生成对应音视频并添加到当前视频轨道中。 左下角会提示渲染完成时间,完成后可点击预览按钮查看效果。 2. 增加背景图片 删除先前导入的文本内容。 点击左上角“媒体”菜单,点击“导入”按钮,选择本地一张图片上传。 点击图片右下角的加号将图片添加到视频轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽直到视频最后,使图片在整个视频播放时都显示。 选中背景图片所在轨道,拖动图片的角将其放大到适合尺寸,并将数字人拖动到合适位置。 此外,如果您想创作一个生物融合成新物种的视频,例如猪和老鹰融合成一个新的物种,以 GPT4 为例的制作教程如下: 1. 故事情节的构思 构思一个吸引人的故事情节,比如新物种的起源故事,结合猪和老鹰的特点以及这种融合带来的独特能力和挑战,考虑添加神秘或奇幻元素增强阴暗风格。 2. 视觉效果的设计 使用 3D 建模和特效技术创造出既霸气又具有阴暗风格的新物种形象,高质量的视觉效果和流畅的动画能吸引更多观众并提高视频的分享率。 3. 音乐和声音设计 配置适当的背景音乐和声效,以增强视频的氛围,选择能激起观众情绪的音乐和声音效果,让视频更加引人入胜。 4. 社交媒体互动
2024-11-23
如果选择一个最需要的AI工具,你会建议我学什么?比如视频剪辑?
如果要选择一个最需要学习的 AI 工具用于视频剪辑,以下是一些相关建议: 工具选择: 剪映是一个较为方便的选择,它具有很多人性化设计和简单的音效库、小特效。但也存在一些不足,如无法协同工作和导出工程文件,难以与其他软件进行工程联通,影响视频的商业化效果。 剪辑流程: 1. 视频粗剪:先确定画面逻辑,声音可作部分参考,快速对片子全貌有整体把握,把素材放上,再进行细节调整和画面替换。画面不需要精美,重点是把握整体。 2. 视频定剪:将画面素材调整和替换到满意效果。 3. 音效/音乐:以剪映为例,有简单音效库,复杂音效可能需另外制作。使用商用音乐要注意版权。 4. 特效:以剪映为例,可适当添加一些光的效果。 5. 包装(如字幕):字幕最后上,剪映可智能匹配字幕再修改。 故事创作: 除了工具,故事也很重要。故事来源有两条路径: 1. 原创(直接经验):自身或周围人的经历、做过的梦、想象的故事等。 2. 改编(间接经验):经典 IP、名著改编、新闻改编、二创等。 剧本写作: 编剧有一定门槛,不能仅套剧作理论和模版,要多写多实践,再结合看书总结经验。短片创作可从自身或朋友经历改编入手,或对触动自己的短篇故事进行改编。多与他人讨论故事,有助于修改和进步。 声音制作: 在传统影视制作中,声音部分包括现场录音、后期配音、音效音乐制作等。对于 AI 声音制作对话,如使用 11labs 进行英文对白制作,效果较好但存在没有情绪和情感的问题,需通过标点符号改变语音效果,不断抽卡调试。国内可使用魔音工坊,其有情绪调节控件。 剪辑软件: 对于 13 分钟的短片,剪映较方便;更长篇幅或追求更好效果,可能需使用 PR/FCP/达芬奇等传统剪辑软件。
2024-11-22
中国国产最好用的免费视频AI是哪个呢
以下是一些中国国产好用的免费视频 AI 工具: Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 ETNA(国内):https://etna.7volcanoes.com/ 。是一款由七火山科技开发的文生视频 AI 模型,能根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达 4K,最高 38402160,画面细腻逼真,帧率 60fps。 Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频、视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以。 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文。 此外,还有一些其他的相关工具: Leiapix:https://www.leiapix.com/ ,免费,可把一张照片转动态。 Krea:https://www.krea.ai/ ,12 月 13 日免费公测。 luma: ,30 次免费。 hailuoai:https://hailuoai.video/ ,新账号 3 天免费,过后每天 100 分,语义理解能力强。 Opusclip:https://www.opus.pro/ ,可利用长视频剪成短视频。 Raskai:https://zh.rask.ai/ ,短视频素材可直接翻译至多语种。 invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法生成脚本和分镜描述,生成视频后可人工二编合成长视频。 descript:https://www.descript.com/?ref=feizhuke.com 。 veed.io:https://www.veed.io/ ,有一次免费体验,可自动翻译自动字幕。 clipchamp:https://app.clipchamp.com/ ,免费,高级功能付费。 typeframes:https://www.revid.ai/?ref=aibot.cn ,有免费额度。
2024-11-22
推荐一款国内不错的AI视频生成软件
以下为您推荐几款国内不错的 AI 视频生成软件: 1. 可灵:在 AI 视频生成领域表现出色,具有以下优势: 卓越的视频生成质量,与国际顶级模型相当,能满足普通用户和专业创作者的需求。 生成速度快,处理效率高于国外同类产品,提升用户工作效率。 对国内用户可访问性强,提供便捷、稳定的使用体验。 2. Hidreamai:有免费额度,支持文生视频、图生视频,提示词使用中文、英文均可,文生视频支持多种控制,可生成 5s 和 15s 的视频。网址:https://hidreamai.com//AiVideo 3. ETNA:由七火山科技开发,可根据简短文本描述生成相应视频内容,生成视频长度 8 15 秒,画质可达 4K,最高 38402160,画面细腻逼真,帧率 60fps,支持中文,时空理解。网址:https://etna.7volcanoes.com/ 此外,还有 Pika、SVD、Runway、Kaiber、Sora 等国内外提供此类功能的产品,您可以根据自己的具体情况进行选择。更多的文生视频网站可查看: 需注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-11-22
有生成海报吗
以下是一些设计海报的 AI 产品: 1. Canva(可画):https://www.canva.cn/ ,是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作创建海报,其 AI 功能可帮助选择合适颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ ,稿定智能设计工具采用先进人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ ,简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,智能建议功能可帮助快速找到合适设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ ,通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子等视觉内容,还集成丰富模板库和自动图像编辑功能,如智能布局和文字优化,简化设计流程。 此外,还有一些关于海报制作的案例和教程: 商业教程中,在制作统一 2 个角色的插画海报时,需要明确写关键词,如“Flat illustration design,a man,black hair,half body,face front,front view,sitting at the table,working,using computer or holding mobile phone,yellow and white clothes,blue solid color background,emoticon pack 6 emoji tables,red and white clothes,multiple poses and expressions,anthropomorphic style,different emotions,multiple poses and expressions,8k ar 3:4 niji 5 style expressive s 180”,多生成几套挑选,对不满意区域可进行局部重绘,从得到的结果里挑选合适的放大。 在一些节目制作中也用到了相关工具,如: 节目“智绘神州·美哉中华”使用工具包括文字 GPT、图片 Midjourney、Stable Diffusion 等。 节目“互动海报”使用工具包括图片 Stable Diffusion、影像 Stable Video Diffusion。 节目“四大名著”使用工具包括文字 GPT、图片 Midjourney、音轨剪映 ai 配音。 内容由 AI 大模型生成,请仔细甄别。
2024-11-23
图片生成图片的AI模型有哪些
目前比较成熟的图片生成图片(图生图)的 AI 模型主要有: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格供选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,一些受欢迎的文生图工具也可用于图生图,例如: 1. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,可生成高质量的图片,支持多种模型和算法。 3. MidJourney:因高质量的图像生成效果和友好的用户界面设计而广受欢迎,在创意设计人群中尤其流行。 在 WaytoAGI 网站(https://www.waytoagi.com/category/104),可以查看更多文生图工具。 关于图生图的操作方式:在相关工具的首页有对话生图对话框,输入文字描述即可生成图片,不满意可通过对话让其修改。例如在吐司网站,图生图时能调整尺寸、生成数量等参数,高清修复会消耗较多算力建议先出小图。Flex 模型对语义理解强,不同模型生成图片的积分消耗不同,生成的图片效果受多种因素影响。国外模型对中式水墨风等特定风格的适配可能存在不足,可通过训练 Lora 模型改善。
2024-11-23
如何搭建利用产品原图和模特模板生成商业图的工作流 或者有没有这类ai 应用
以下是关于利用产品原图和模特模板生成商业图的工作流及相关 AI 应用的信息: 美国独立站搭建工作流中,有给模特戴上珠宝饰品的应用。 大淘宝设计部在主题活动页面、超级品类日传播拍摄创意、产品营销视觉、定制模特生成、产品场景生成等方面应用了 AI。例如,七夕主题活动页面通过 AI 生成不受外部拍摄条件限制的素材;在 UI 设计场景中,利用 SD 中 controlnet 生成指定范围内的 ICON、界面皮肤等;通过对 AI 大模型的训练和应用,提升合成模特的真实性和美感,提供定制化线上真人模特体验,如 AI 试衣间、AI 写真等;还能根据商品图和用户自定义输入生成多张场景效果,无需 3D 模型、显卡渲染和线下拍摄。
2024-11-22
可以根据照片生成人物的AI软件
以下是一些可以根据照片生成人物的 AI 软件: PhotoMaker:可以根据文字描述生成人物照片,能混合不同人物特征创造新形象,还能改变照片中人物的性别、年龄。访问链接:https://photomaker.github.io ,https://x.com/xiaohuggg/status/1746861045027869072?s=20 HeyGen:通过上传照片或文字提示,即可生成个性化 AI 数字形象视频。支持自定义肢体动作、服装、背景、年龄、性别等特征。仅需 1 分钟即可生成包含脚本、声音和情感表达的数字人视频。访问链接:https://x.com/imxiaohu/status/1852317866038809035
2024-11-22
可以生成原生动漫人物的AI软件
以下是一些可以生成原生动漫人物的 AI 软件: 1. 数字人的躯壳构建方面: 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,代表软件是 Live2D Cubism。 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高,代表有 UE、Unity,虚幻引擎 MetaHuman 等。个人学习在电脑配置和学习难度上有一定门槛。 AIGC:虽然省去了建模流程,直接生成数字人的展示图片,但算法生成的数字人在 ID 一致性和帧与帧的连贯性上存在弊端。典型的项目有 wav2lip等。AIGC 还有一个方向是直接生成 2D/3D 引擎的模型,但该方向还在探索中。 2. 生成式 AI 在艺术创作方面: Lensa 可以生成肖像画等内容。 3. 其他相关软件: 百川智能 BaichuanNPC 可以定制游戏角色和动漫人物,并融合角色知识库和多轮记忆,提供 Lite 和 Turbo 两种版本。 阿里巴巴 FaceChainFACT 支持零样本肖像生成,秒级速度,支持百余种定制模板,兼容 ControlNet 和 LoRA 插件。 BakedAvatar 可以从视频创建逼真 3D 头部模型,实时渲染和多视角查看,兼容多种设备,可交互性编辑。 DragNUWA 能够基于文本、图像和轨迹生成视频,用户绘制轨迹即可动态生成。
2024-11-22