直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

SD生成视频的技术难点

回答

SD 生成视频的技术难点主要包括以下方面:

  1. 稳定性和闪烁问题:目前基本所有的 SD 生成视频都存在这方面的问题,不过上周发布的一个方案在很大程度上解决了此问题。该方案包括使用适应性扩散模型生成关键帧,并应用分层交叉帧约束来强制形状、纹理和颜色的一致性;通过时间感知的补丁匹配和帧混合将关键帧传播到其他帧。
  2. 图像处理:如在生成视频时,抠图中间可能处理不彻底,最好先通过 PS 扣好模板再绘制背景。
  3. 操作方法:生成视频的方法包括粗暴地替换,或者一帧一帧拆开然后利用 ControlNet + 局部重绘功能,每一帧做取模重绘,并尽量在同一语义下批量生成。
  4. 关键词和反关键词设置:输入关键词如奶油的英文单词“Cream + Cake”(加强质感),反关键词如“Easynegative”(负能量),反复刷机以得到满意效果。
  5. 模型和参数设置:例如选择合适的模型、设置采样器、CFG 尺度、种子、尺寸、VAE 等参数。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:SD 做中文文字-持续更新中

Nenly同学的视频教程来了:【“牛逼”的教程来了!一次学会AI二维码+艺术字+光影光效+创意Logo生成,绝对是B站最详细的Stable Diffusion特效设计流程教学!AI绘画进阶应用-哔哩哔哩】https://b23.tv/c33gTIQ还有个群友根据下面的教程自己做了个视频教程非常详细1.将中文字做成白底黑字,存成图片样式2.使用文生图的方式,使用大模型真实系,作者用的realisticVisionV20_v20.safetensors[e6415c4892]ControlNet预设置3.输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。4.同理可输出C4D模型,可自由贴图材质效果,3d,blender,oc rendering5.如果希望有景深效果,也可以打开depth(增加阴影和质感)6.打开高清修复,分辨率联系1024以上,步数:29-60本来想方一个b站视频,但是没有按照上面的实测,等看完之后再推荐当然https://firefly.adobe.com/也可以,但是sd感觉可操控性更强,尤其是中文字体

AIGC Weekly #26

现在基本所有的SD生成视频都存在稳定性和闪烁的问题,只是有的多有得少。上周发布的这个方案看起来很大程度解决了这个问题。关键帧翻译和完整视频翻译。第一部分使用适应性扩散模型生成关键帧,并应用分层交叉帧约束来强制形状、纹理和颜色的一致性。第二部分通过时间感知的补丁匹配和帧混合将关键帧传播到其他帧。最重要的是与现有的图像扩散技术兼容,使框架能够利用它们,例如使用LoRA自定义特定主题,并使用ControlNet引入额外的空间引导。过几天应该会开源可以到时候关注一下。

我用Stable Diffusion做电商!

Steps:20,Sampler:DPM++ 2M Karras,CFG scale:7,Seed:2728494159,Size:362x486,Model hash:7c819b6d13,Model:majicmixRealistic_v7,VAE hash:c6a580b13a,VAE:vae-ft-mse-840000-ema-pruned.safetensors,Denoising strength:0.75,Clip skip:2,Mask blur:2,ControlNet 0:"Module:none,Model:control_v11p_sd15_openpose[cab727d4],Weight:1,Resize Mode:Crop and Resize,Low Vram:False,Processor Res:512,Guidance Start:0,Guidance End:1,Pixel Perfect:True,Control Mode:My prompt is more important",Version:v1.6.0我这里抠图中间抠得不是很彻底,最好是ps扣好模板让后画背景,总之这对SD来说小菜一碟。这样就可以做自己的淘宝模特啦。面向不同的人群市场可以做不同的模特,不用请人了哦!同样地这种一点点修的方法可以用在视频上:生成视频的方法有两种:一种是很粗暴地替换也可以一帧一帧拆开然后利用controlNet+局部重绘功能,每一帧做取模重绘。然后尽量同一语义下批量生成。

其他人在问
SD网址多少
以下是一些常用的与 SD 相关的网址: 另外,SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库:github.com/StabilityAI/stablediffusion 。我们可以通过一系列的工具搭建准备,使用 SD 进行想要的图片生成。 关于 SD 的安装: 系统需为 Win10、Win11 。 Win 系统查看配置。 配置达标跳转至对应安装教程页: 。 配置不够可选择云端部署(Mac 也推荐云端部署): 。 备选:SD 好难,先试试简单的无界 AI: 。
2024-09-18
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
sd和comfy的详细学习教程推荐
以下是关于系统学习 SD 和 Comfy 的详细教程推荐: 学习 SD 提示词的步骤: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 相关入门教程链接: 1. 2. 3. 4. 5. 6. 7. 8. 9. 关于 Comfy 的学习,您可以参考以下知乎教程中的相关部分:,其中包含零基础使用 ComfyUI 搭建 Stable Diffusion 推理流程的内容。
2024-09-11
SD 模型
以下是关于 SD 模型的相关信息: 模型安装设置: 二维码做好后进入 SD 版块,需下载两个 SD 的 ControlNET 模型和一个预处理器。可添加公众号【白马与少年】,回复【SD】获取。在【QR ControlNET】文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”路径下。选择“cheeseDaddys ”模型,填入描绘梦幻森林的关键词,同时将迭代步数设置到 15,采样选择 DPM++ 2M Karras,图像大小设置到 768768。 核心基础原理: 1. SD 模型是生成式模型,输入可以是图片、文本以及两者的结合,输出是生成的图片。 2. 属于扩散模型,其整体逻辑特点是过程分步化与可迭代,为生成过程引入更多约束与优化提供可能。 3. 是基于 Latent 的扩散模型,将输入数据压缩到 Latent 隐空间中,大幅提高计算效率并降低显存占用,是破圈关键。 4. 从 CTO 视角看,是一个优化噪声的 AI 艺术工具。 工作流程: Stable Diffusion(SD)模型由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。以文生图(txt2img)和图生图(img2img)任务为例,文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数,输出符合文本描述的图片;图生图任务在输入文本基础上再输入一张图片,SD 模型根据文本提示将输入图片重绘以更符合文本描述。输入的文本信息需转化为 SD 模型能理解的机器数学信息。
2024-09-11
SD大模型下载网站
以下是一些 SD 大模型的下载网站和相关信息: Civitai(https://civitai.com/):这是一个常用的网站,有各种风格的大模型,如真实系、二次元、游戏 CG 风等,但需要科学上网。如果不会科学上网,也可以去启动器的界面直接下载模型,但这里看不见预览图。下载的大模型应放在根目录的【……\\models\\Stablediffusion】文件夹下。 对于 Fooocus,大模型(base 和 Refiner)默认放在这里:\\ Fooocus_win64_1110\\ Fooocus\\models\\checkpoints;LoRA 模型默认放在这里:\\ Fooocus_win64_1110\\ Fooocus\\models\\loras。如果单独安装,需要下载的模型链接如下: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 在 Civitai 网站的使用方法: 1. 科学上网(无法教授具体方法,需自行解决)。 2. 点击右上角的筛选按钮,在框框里面找到自己需要的模型类型,如 Checkpoint=大模型,LoRA=Lora。 3. 看照片,感兴趣的点进去,点击右边的“Download”下载,保存到电脑本地,文件保存位置在前面提到的相关文件夹。另外,还可以点击左上角的“Images”,看到喜欢的图片点进去,点进去后的页面可看到图片的全部信息,直接点击 Lora 和大模型,可直接跳转到下载页面。点击最下面的“Copy...Data”可复制图片的所有信息,回到 SD 粘贴到关键词的文本框,点击右边的按钮,这些信息就会自动分配。需要注意的是,大模型需要手动更换。
2024-09-06
sd3大模型的教程
以下是关于 SD3 大模型的一些教程资源: 【AI 艺境】ComfyUI 快手 Kolors 模型基础使用工作流全套模型网盘分享: 作者:极点 AI 类型:教学视频 链接: 备注:商用工作流请自行辨别 拳打 SD3 脚踢 MidjourneyV6?某手开源的可图 Kolors 到底是不是真的强,内附 Comfyu 部署教程: 作者:淼淼爸的 AI 笔记 类型:评测视频 链接: 国产超牛的开源大模型可图 kolors: 作者:大桶子 AI 类型:评测视频 链接:(https://www.bilibili.com/video/BV1MZ421T79S/? 另外,关于 SD3 的一些说明: SD3 已开放下载(并非开源,是收费的)。 基础模型包括:主模型“sd3_medium”,文本编码器“clip_g”“clip_l”“t5xxl_fp16/t5xxl_fp8_e4m3fn”。在 ComfyUI 中使用时需分别通过模型加载器和 CLIP 加载器加载,“t5xxl”是非必要项。 融合了文本编码器的模型有 2 个:无 T5 的“sd3_medium_incl_clips = sd3_medium + clip_g + clip_l”,有 T5 的“sd3_medium_incl_clips_t5xxlfp8 = sd3_medium + clip_g + clip_l + t5xxl_fp16/t5xxl_fp8_e4m3fn”。在 ComfyUI 中使用时直接用模型加载器加载主模型即可,无需 CLIP 加载器(如同之前的 SD1.5 或 SDXL 的基础工作流)。下载地址(huggingface 比较慢,多放几个百度云盘)。
2024-09-02
comfyui生成视频的技术难点
ComfyUI 生成视频的技术难点及相关内容如下: 运行 ComfyUI 并加载工作流:完成准备工作后运行 ComfyUI,默认版本存在不支持模型版本和 node 管理的问题,需安装 ComfyUI Manager 插件。再次运行 python main.py 会出现 Manager 菜单。工作流可下载后使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,最后在 ComfyUI 目录下的 output 文件夹查看生成好的视频。 显存溢出问题:若生成视频过程中出现显存溢出问题,需进一步处理。 ComfyUI 的特点:其核心在于自由和拓展,可自行调整以切合工作流甚至改造工作流,在 AI 发展迅速的时代保持灵活至关重要。能完成生成四格故事漫画、视频、写真、表情包、换脸、换装等,相关内容后续会一一讲解介绍。
2024-08-26
写清搭建的coze类的智能体用到了什么样的技术,难点在哪里,起到了什么样的效果,如果用类似的方法,可以完成什么样的工作。
搭建 Coze 类的智能体所用到的技术及相关情况如下: 技术:Bot 的创建部分包括 3 个自研插件及 4 个自研工作流,涉及人设与回复逻辑、变量记忆、长期记忆、数据库、开场白、用户问题建议、快捷指令、语音等功能。还包括通过 Docker 容器部署,接入如 chatgptonwechat(CoW)项目与微信取得关联。 难点:工作量最大且最具难度和挑战的部分是自研插件和工作流的搭建。 效果:实现了多模态资讯的跨平台推送。 类似方法可完成的工作:工作流驱动的 Agent 搭建,如规划任务的关键方法,包括总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法;实施时分步构建和测试 Agent 功能,在 Coze 上搭建工作流框架,详细配置子任务节点并验证可用性;完善时全面评估并优化 Agent 效果,通过反复测试和迭代达到预期水平。例如可以搭建“结构化外文精读专家”Agent 等。
2024-08-26
AI要继续向前发展,主要的技术难点和挑战是什么?
AI 要继续向前发展,面临着以下主要的技术难点和挑战: 1. 快速迭代带来的压力:AI 迭代速度极快,如一年或两年迭代的内容,当下一个月就可能发生变化,这使得相关从业者跟进步伐较为吃力。 2. 基建需求:如在 2024 年需搞好大模型、算力等方面的基建工作。 3. 应用端的发展:需要促进应用端的繁荣。 4. 技术推广:虽然在特定游戏环境中 AI 取得显著成果,但将其推广到更广泛、复杂的现实世界应用面临诸多挑战。例如,游戏环境通常封闭可控,而现实世界充满未知和不确定性;游戏中的胜利条件明确一致,而现实生活中的目标可能多样、冲突或随时间变化。 5. 共创模式的挑战:包括协调复杂、知识产权保护、利益分配、责任归属与质量控制等。
2024-08-16
国内外好用的图生视频模型
以下是一些国内外好用的图生视频模型: 可灵(国内,免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型。 可以根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 文生视频,支持中文,时空理解。 关于可灵的文生视频效果,测试者 Austin 周安鑫进行了以下测试: 1. 场景识别:包括室内和室外,如客厅的沙发、液晶电视、漂亮的波斯猫、超现实主义的蜿蜒河流、茂密森林、灿烂花海、碧绿草坪等。 2. 物体识别:涵盖静态和动态物体,如水晶球、跳动的火焰、翱翔的飞鸟、闪烁的流星、飞溅的水珠等。 3. 人物识别:包括面部和姿态,如一个人笑容灿烂、一个人惊恐愤怒,一位芭蕾舞女孩在冰面上跳舞等。 4. 动作识别:包含基本和复杂动作,如短跑运动员快速奔跑、赛车手驾驶跑车激烈漂移等。 5. 事件检测:有简单和复杂事件,如一位帅哥在喝水、外星文明和地球进行星际大战等。 6. 环境变化:涉及光线和天气,如奇幻的极光舞动变幻、城市写字楼灯光忽明忽暗、闪电交加、乌云密布、台风、大雨等。 7. 多对象场景:包括单一和多对象场景,如 1 个飞行员驾驶战斗机翱翔太空、海军指挥航母战斗群展开激烈战斗等。 8. 特殊场景:有遮挡和非标准场景,如城市大雾遮挡摩天大楼、一边是神秘海底世界,一边是梦幻糖果屋。 9. 细节检测:包含小物体和微表情,如崭新的苹果电脑屏幕上播放电影、瞳孔收缩、脸颊泛红、嘴唇微微颤抖。
2024-09-19
我想了解 AI 创作视频相关的资料
以下是关于 AI 创作视频的相关资料: 在人员方面,有以下人员从事与 AI 创作相关的工作: 路西:从事 AI 视频创作。 汪汪汪:制作 AI 视频、AI 图文。 大白光:在生活和工作中出图和视频。 kone:从事 AI 商业实战应用,包括 AI 短片、AI 广告、AI 电影、AI MV 等。 一花一世界:从事视频相关工作。 林旭辉:从事视频制作、电商相关工作。 如果想用 AI 把小说做成视频,一般的制作流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 如果您想参加 filMarathon 全球 AI 电影马拉松大赛,以下是一些学习资料和参赛方式: 剧本创作:人力为主,可参考 图片生成:AI 作图绘画,可参考 视频生成:AI 视频生成,可参考 音频生成: AI 音乐创作,可参考 音效创作指导,可参考 语音合成,可参考 剪辑工具:剪映剪辑,可参考
2024-09-19
AI怎么把图片做成视频
以下是将图片制作成视频的几种方法: 1. 使用 PixVerse 网站(https://app.pixverse.ai):涂抹选区,给出相应的运动方向,最后加入配音,剪辑一下即可。 2. 利用快影(需先通过内测申请): 打开快影,选择 AI 创作。 选择 AI 生成视频。 选择图生视频。 上传处理好的图片,填写想要的互动动作和效果,然后点击生成视频,排队等待生成结束后点击下载。 3. 采用 Midjourney 出图结合 AI 视频软件的方法: 使用 Midjourney 垫图加描述出图。 下载“素材”项里的深度图,打开 MJ 官网(https://www.midjourney.com/)上传深度图。 若图片完美可直接生成视频,若有黑边则需下载图片并用 PS 创成式充填处理黑边。
2024-09-19
推荐将线上视频转变成文字的运用
以下是一些将线上视频转换成文字的应用推荐: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,能在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需注意是收费的。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的相关网站可以查看: 另外,为您推荐在线 TTS 工具 Voicemaker(https://voicemaker.in/),它可将文本转换为各种区域语言的语音,并允许创建自定义语音模型,易于使用,适合为视频制作画外音或帮助视障人士。 以上内容由 AI 大模型生成,请仔细甄别。
2024-09-19
有什么工具可以将视频生成脚本
以下是一些可以将视频生成脚本的工具和方法: 1. 工具组合: ChatGPT(https://chat.openai.com/)+剪映(https://www.capcut.cn/):ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频所需场景、角色、镜头等要素,并生成对应素材和文本框架,可快速实现从文字到画面的转化,节省时间和精力。 PixVerse AI(https://pixverse.ai/):在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 Pictory(https://pictory.ai/):AI 视频生成器,用户提供文本描述即可帮助生成相应视频内容,无需视频编辑或设计经验。 VEED.IO(https://www.veed.io/):提供 AI 图像生成器和 AI 脚本生成器,帮助从图像制作视频,并规划内容。 Runway(https://runwayml.com/):AI 视频创作工具,能将文本转化为风格化的视频内容,适用于多种场景。 2. 将小说做成视频的制作流程: 小说内容分析:使用 AI 工具(如 ChatGPT)提取关键场景、角色和情节。 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成视觉描述。 图像生成:使用 AI 图像生成工具创建角色和场景的图像。 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 后期处理:对生成的视频进行剪辑、添加特效和转场,提高视频质量。 审阅与调整:观看生成的视频,根据需要调整,如重新编辑某些场景或调整音频。 输出与分享:完成编辑后,输出最终视频并在所需平台分享。 请注意,具体操作步骤和所需工具可能因项目需求和个人偏好不同而有所差异。此外,AI 工具的可用性和功能可能会随时间变化,建议直接访问工具网址获取最新信息和使用指南。
2024-09-19
有没有把公众号文章转成视频的工具呀
以下是一些可以将公众号文章转成视频的工具: :一个使用人工智能将博客文章转化为播客的工具。用户只需将博客文章复制粘贴到该工具中,几分钟内就能生成一个有声播客。该工具还提供了免费试用和多个价格层级选择。用户无需具备技术知识,可以轻松地将播客发布到 Spotify 等平台,吸引更多的听众。 如果您想用 AI 把小说做成视频,以下是一些相关工具及网址: Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: Clipfly:一站式 AI 视频生成和剪辑平台。网址: VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 故事 AI 绘图:小说转视频的 AI 工具。网址: 以下是一些文字生成视频的 AI 产品: Pika:一款非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 Runway:一款老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,不过需要注意的是,Runway 是收费的。 Kaiber:一款视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2024-09-18
有没有免费ai生成ppt的
以下为您介绍一些免费的 AI 生成 PPT 的工具和相关信息: 1. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,可能提供智能文本生成、语音输入、文档格式化等功能,旨在提高文档编辑效率。网址:https://zhiwen.xfyun.cn/ 2. Gamma:在各种交流群中被频繁推荐,免费版本能生成质量较高的 PPT,且不断优化改进,在内容组织、设计美观度和整体专业感方面表现卓越。 目前市面上大多数 AI 生成 PPT 按照以下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》 另外,为您推荐 3 款好用的 AI 制作 PPT 工具,但请注意内容由 AI 大模型生成,请仔细甄别。
2024-09-19
有没有可以将word生成PPT的
以下是几种将 Word 生成 PPT 的方法: 1. 先让 GPT4 生成 PPT 大纲,然后把大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT。为了让 PPT 更有灵动性和观感,可以让 chatPPT 添加一些动画,最后手动修改细节,比如字体、事实性错误等。但生成符合要求的大纲可能较费时。 2. 大纲出来后,针对每个主题进行内容补充,然后用 mindshow 工具将 markdown 内容转换成 PPT。具体步骤为:在 https://www.mindshow.fun//login?inviteCode=6487516 注册账号登录,把内容复制到内容框后,点击导入创建。 3. 微软发布的将 GPT4 集成到 Office 套件中的一体化解决方案 Copilot ,可以根据 Word 文档直接生成 PPT 。
2024-09-19
有什么免费的AI图片生成工具
以下是一些免费的 AI 图片生成工具: 1. Canva(可画):https://www.canva.cn/ 是一个受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作创建海报,其 AI 功能可协助选择颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 简单易用的设计平台,提供大量设计模板和元素,用户可用 AI 工具创建个性化海报,智能建议功能帮助用户快速找到合适设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子等视觉内容,还集成丰富模板库和自动图像编辑功能。 以下是一些图片生成 3D 建模工具: 1. Tripo AI:VAST 发布的在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型,基于数十亿参数级别的 3D 大模型,实现快速 2D 到 3D 转换,并提供 AI 驱动的精准度和细节。 2. Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成,用户上传图片并描述材质和风格可生成高质量 3D 模型。 3. CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象,再转换为 3D 模型。 4. Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域模型生成,用户上传图片或输入文本提示词生成 3D 模型。 5. VoxCraft:由生数科技推出的免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型,并提供图像到 3D、文本到 3D 和文本到纹理等多种功能。 以下是一些文生图工具: 1. DALL·E:OpenAI 推出的文生图工具,可根据输入文本描述生成逼真图片。 2. StableDiffusion:开源的文生图工具,能生成高质量图片,支持多种模型和算法。 3. MidJourney:因其高质量图像生成效果和用户友好界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您还可以在 WaytoAGI 网站查看更多文生图工具:https://www.waytoagi.com/category/104 请注意,内容由 AI 大模型生成,请仔细甄别。
2024-09-18
有什么根据文字生成图片的AI工具
以下是一些根据文字生成图片的 AI 工具: 1. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,可生成高质量图片,支持多种模型和算法。 3. MidJourney:因高质量的图像生成效果和用户友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您可以在 WaytoAGI 网站(https://www.waytoagi.com/category/104)查看更多文生图工具。 此外,从文本提示生成 2D 图像已经是生成性 AI 广泛应用的领域之一,像 Midjourney(https://www.midjourney.com/home/)、Stable Diffusion(https://stability.ai/blog/stablediffusionannouncement)和 DallE 2(https://openai.com/dalle2/)这样的工具可以从文本生成高质量的 2D 图像,并在游戏生命周期的多个阶段有应用。例如,在概念艺术方面,生成性 AI 工具能帮助非艺术家快速探索概念和想法,生成概念艺术作品,加速创作流程。
2024-09-18
有没有自动生成专利申请文件的平台
以下是一些可以自动生成专利申请文件的平台: 1. Specifio:利用 AI 技术自动生成专利申请文件,包括专利说明书和权利要求书,能提高专利申请的效率。 2. PatentPal:使用 AI 技术自动生成和编辑专利申请文件,可减少人工工作量。 在专利小助手中,还有以下插件可用于相关工作: 1. Kimi:可以用于自动生成专利申请文档的草稿、摘要或专利描述,提高文档撰写效率。 2. TreeMind 树图:可以用来创建专利结构的思维导图,帮助用户理解专利的组成部分和它们之间的关系。 3. ProcessOn 流程图:可以用于设计和展示专利申请和管理的详细流程,帮助用户理解每一步的操作和所需材料。 4. Word 文档:可以用来处理专利申请文件、专利描述、权利要求书等文档。 使用这些平台通常需要以下步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。
2024-09-18