Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Midjourney+sd可以生成服装模特视频么

Answer

Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法:

  1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载[素材]项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。
  2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。

同时,您还可以参考以下视频工具建议:AJ:AI 视频软件汇总 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/ai-tool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。

Content generated by AI large model, please carefully verify (powered by aily)

References

第6期:Video Battle AI 视频挑战-新生

视频工具建议:[AJ:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[heading3]方法0【Dreamina深度图出图+出视频】[content]使用Dreamina图片生成功能https://dreamina.jianying.com/ai-tool/image/generate上传深度图,选择适应画布比例填写描述[heading3]方法1【MJ出图+AI视频软件】[content]方法作者:迦/小龙问路使用Midjourney垫图➕描述出图,再去视频工具中转成视频下载[素材]项里的深度图,打开MJ官网上传深度图Midjourney官网:https://www.midjourney.com/局部重绘有点难度⬇️,放弃最终方式:分开画:先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成。p在一起再丢给MJ各种垫图局部重绘也能无中生有[heading3]方法2【Dall E3出图+AI视频软件】本期作品有点控制不住[content]使用Dall E直接描述出图,再去视频工具中转成视频[heading3]方法3【SD出图+AI视频软件】[content]在SD的controlnet中上传原图,选择深度。文生图就可以生成图片。再把生成好的图放在AI视频工具中进行视频生成dreamina:https://dreamina.jianying.com/ai-tool/video/generate成片:[imageinput_人在走向大型的三角建筑_2024-04-03(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/YlFwb1TC9om8Abxhrrhci9lAnab?allow_redirect=1)

第6期已完成:Video Battle AI 视频挑战第6期-新生

视频工具建议:[AJ:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[heading3]方法0【Dreamina深度图出图+出视频】[content]使用Dreamina图片生成功能https://dreamina.jianying.com/ai-tool/image/generate上传深度图,选择适应画布比例填写描述[heading3]方法1【MJ出图+AI视频软件】[content]方法作者:迦/小龙问路使用Midjourney垫图➕描述出图,再去视频工具中转成视频下载[素材]项里的深度图,打开MJ官网上传深度图Midjourney官网:https://www.midjourney.com/局部重绘有点难度⬇️,放弃最终方式:分开画:先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成。p在一起再丢给MJ各种垫图局部重绘也能无中生有[heading3]方法2【Dall E3出图+AI视频软件】本期作品有点控制不住[content]使用Dall E直接描述出图,再去视频工具中转成视频[heading3]方法3【SD出图+AI视频软件】[content]在SD的controlnet中上传原图,选择深度。文生图就可以生成图片。再把生成好的图放在AI视频工具中进行视频生成dreamina:https://dreamina.jianying.com/ai-tool/video/generate成片:[imageinput_人在走向大型的三角建筑_2024-04-03(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/YlFwb1TC9om8Abxhrrhci9lAnab?allow_redirect=1)

第7期:Video Battle AI 视频挑战-爱

视频工具建议:[AJ:AI视频软件汇总](https://waytoagi.feishu.cn/wiki/Y0RywLaIuinDM6kEcVPcvOlwnwd)[heading3]方法0【Dreamina深度图出图+出视频】[content]使用Dreamina图片生成功能https://dreamina.jianying.com/ai-tool/image/generate上传深度图,选择适应画布比例填写描述[heading3]方法1【MJ出图+AI视频软件】[content]方法作者:迦/小龙问路使用Midjourney垫图➕描述出图,再去视频工具中转成视频下载[素材]项里的深度图,打开MJ官网上传深度图Midjourney官网:https://www.midjourney.com/局部重绘有点难度⬇️,放弃最终方式:分开画:先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成。p在一起再丢给MJ各种垫图局部重绘也能无中生有[heading3]方法2【Dall E3出图+AI视频软件】本期作品有点控制不住[content]使用Dall E直接描述出图,再去视频工具中转成视频[heading3]方法3【SD出图+AI视频软件】[content]在SD的controlnet中上传原图,选择深度。文生图就可以生成图片。再把生成好的图放在AI视频工具中进行视频生成dreamina:https://dreamina.jianying.com/ai-tool/video/generate成片:[imageinput_人在走向大型的三角建筑_2024-04-03(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/OBOubAL1iozYIGxD5bscQW1OnFd?allow_redirect=1)

Others are asking
Midjourney 学习教程
以下是学习 Midjourney 的教程: 1. 注册相关账号:注册 Discord 账号并加入 Midjourney 服务器,Midjourney 也有在线版本可直接使用。 2. 掌握提示词结构:了解 Prompt 的基本组成部分,如“主体”“媒介”“环境”等,学习构建有效的 Prompt 来生成理想图像。 3. 熟悉常用参数和命令:学习 Midjourney 的各种参数设置,如放大、细节等,掌握常用命令,如/imagine、/test 等。 4. 针对不同场景练习创作:尝试针对插画、游戏、框架等不同场景进行创作练习,通过实践提高 Prompt 编写和图像生成技巧。 5. 学习他人作品并模仿:观察学习其他用户的优秀作品,了解其 Prompt 技巧,通过模仿提高创作水平。 此外,还可以通过以下方式学习 Midjourney: 把 Midjourney 的官网说明书喂给 GPT,让其根据说明了解机制和结构,给出适合的提示词。 像案例中的二师兄一样,加入相关社群,如 Prompt battle 社群,打磨文生图提示词学习。 总的来说,系统学习 Prompt 编写技巧、熟悉 Midjourney 的功能,并通过大量实践创作,同时善于学习他人经验,是学习 Midjourney 的有效方法。但需注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-06
怎么学习Midjourney和stable defussion
以下是关于学习 Midjourney 和 Stable Diffusion 的一些建议: Midjourney: 优势:操作简单方便,创作内容丰富,但需要科学上网并且付费,月费约 200 多元。若只是前期了解,可先尝试。 学习途径:只需键入“thingyouwanttoseev 5.2”(注意末尾的v 5.2 很重要,它使用最新的模型),就能得到较好的结果。Midjourney 需要 Discord,可参考。 Stable Diffusion: 优势:开源免费,可以本地化部署,创作自由度高,但需要较好的电脑配置,尤其是显卡。 学习途径: 关于具体的安装方法可以去看看 B 站的【秋葉 aaaki】这个 Up 主的视频。 可以参考,了解其工作原理和基本功能。 如果走 Stable Diffusion 这条路,这里有一个很好的指南(请务必阅读第 1 部分和第 2 部分) 此外,在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如可以用 Midjourney 生成线稿,PS 稍微做一些修正,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。
2025-01-06
midjourney的基础使用教程
以下是 Midjourney 的基础使用教程: 一、进入官网 可以选择桌面端下载或浏览器使用。为方便起见,可选择浏览器使用,若想在桌面端使用,可根据电脑选择对应版本进行下载。点击右上角的浏览器使用,首次使用需注册,选择企业用户注册,输入对应名称和手机号即可注册成功(目前无需填写企业信息),注册完成后进入具体操作页面。 二、基础操作 点击开始想象按钮,将生成的提示词粘贴在下方,直接点击回车,耐心等待几十秒即可看到生成的图片。一次性会生成 4 张图片,可选择喜欢的图片点击,进入后可对图片进行相应操作。 三、创作调整 1. 风格化:数字越大越艺术,但并非越大越好,取决于创作,人像不用调整过高。 2. 怪异化:数字越大越奇怪,可不碰。 3. 多样化:数字越大结果越意想不到,越低越接近提示词。建议新手一开始不用怪异和多样化,可做实验测试。 4. 模式:默认标准,朴实 raw 会让图片质感更好,依个人喜好选择。 5. 版本:默认最高 V6,建议选最高,二次元可选 NIJI。 6. 生成图片的速度:默认快速,速度越快对支付套餐要求越高。 四、图片详情 1. 这边是写的提示词,右上可下载对应图片。 2. 可进行参数调整,参数详解参考下方「参数详解」。对图片进行调整时,注意任何点击都会重新生成图片,免费用户会提示超出套餐,所以别乱点。最右侧是所有生成图片的缩略图。 学习 Midjourney 的步骤 1. 注册 Discord 账号并加入 Midjourney 服务器,Midjourney 也有在线版本可直接使用。 2. 掌握 Midjourney 的提示词(Prompt)结构,了解其基本组成部分,如“主体”“媒介”“环境”等,学习构建有效的 Prompt 来生成理想图像。 3. 熟悉 Midjourney 的常用参数和命令,如放大、细节等参数设置,掌握常用命令如/imagine、/test 等。 4. 针对不同应用场景练习创作,如插画、游戏、框架等,通过实践提高 Prompt 编写和图像生成技巧。 5. 学习他人的优秀作品并进行模仿,观察和学习其他用户的 Prompt 技巧,通过模仿练习提高创作水平。 总的来说,系统学习 Prompt 编写技巧、熟悉 Midjourney 的功能,并通过大量实践创作,同时善于学习他人经验,可有效提升 Midjourney 的使用水平和创作能力。
2024-12-26
MidJourney的地址
Midjourney 的官网地址为:https://www.midjourney.com 。在官网上,已向生成 100 张以上图片的用户开放使用权限。登录后,左侧为各种页面入口,顶部是生成入口(prompt 框)和搜索框。在社区作品、创作(Create)以及组织(Organize)页面中,可随时使用 prompt 框和搜索框,方便查找参考和进行创作,无需频繁切换页面。还可以通过点击 prompt 框最右侧的图标来设置常用参数的默认值,包括画面比例和个性化模型开关。在官网上使用图片参考也变得简单直观,只需点击 prompt 框最左侧的图片按钮,或直接拖入图片即可,官网会记录所有使用过的图片,方便调用或删除。当鼠标悬停在图片上时,会看到 3 个小图标,从左到右分别是角色参考、风格参考、整图参考,点击相应的图标即可,如需多种参考逻辑可按住 shift 键点选多个图标。创作页面最大亮点是 prompt 的复用,可直接点击画面描述或复制描述词到 prompt 框中,也可以直接点击下方横列菜单里的按钮,将包括参考图在内的完整 prompt 替换当前的 prompt。点击图片则会进入单图调整模式,在 discord 中常用的操作指令都被集中在了右下角的按键中,并且上线了全新的 Editor 编辑器功能。
2024-12-17
midjourney的提示词
以下是关于 Midjourney 提示词的相关内容: Midjourney V6 更新风格参考命令 2.0 中,将 sref 和 URL添加到提示的末尾,可利用风格参考图像的视觉风格创建新图像。例如:“A young man stands at the edge of the forest cliff,looking over the ocean below.sref https://s.mj.run/9DFZsjKwkyEv 6.0”。使用“风格参考”图像的魔力在于 Midjourney 会努力捕捉参考图像的美学特质而非语义内容,新提示本身没有美学内容有助于 sref 的执行。 学习 Midjourney 可以采取以下步骤: 1. 注册 Discord 账号并加入 Midjourney 服务器,Midjourney 也有在线版本可直接使用。 2. 掌握 Midjourney 的提示词(Prompt)结构,了解其基本组成部分,如“主体”“媒介”“环境”等,学习构建有效的 Prompt 来生成理想图像。 3. 熟悉 Midjourney 的常用参数和命令,如放大、细节等参数设置,掌握常用命令如 /imagine、/test 等。 4. 针对不同应用场景练习创作,如插画、游戏、框架等,通过实践提高 Prompt 编写和图像生成技巧。 5. 学习他人的优秀作品并进行模仿,观察和学习其他用户的 Prompt 技巧,通过模仿练习提高创作水平。 如果您有疑问或者需要帮助,可以尝试使用以下命令: 1. /help 显示有关 Midjourney Bot 的有用基本信息和提示。 2. /ask 获取问题的答案。 如果需要更多帮助,可以访问 Midjourney Discord 上的 频道。Midjourney Bot 可以通过输入指令与其进行交互,指令可用于创建图像、更改默认设置、监视用户信息等。提示(Prompt)是 Midjourney Bot 解释为生成图像的短文本短语,Bot 将提示中的单词和短语分解成较小的片段作为标记,这些标记与其训练数据比较后用于生成图像,精心制作的提示可帮助生成独特和令人兴奋的图像。Bot 频道是 Midjourney Bot 被允许处理斜杠指令的 Discord 频道。 网站原文请查看:
2024-12-16
Midjourney 提示词工程
以下是一些关于 Midjourney 提示词工程的相关内容: 图像类 Prompt 网站: MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库,网址: MidJourney Prompt Tool:类型多样的 prompt 书写工具,点击按钮就能生成提示词修饰部分,网址: OPS 可视化提示词:这个网站有 Mid Journey 的图片风格、镜头等写好的词典库,方便您快速可视化生成自己的绘画提示词,网址: AIart 魔法生成器:中文版的艺术作品 Prompt 生成器,网址: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器,网址: Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT&Midjourney,网址: OpenArt:AI 人工智能图像生成器,网址: img2prompt:根据图片提取 Prompt,网址: MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用,网址: PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板,网址: AiTuts Prompt:AiTuts Prompt 是一个精心策划的高质量 Midjourney 提示数据库,提供了广泛的不同风格供您选择,网址: Midjourney 最新编辑器更新,可上传图片重新绘制的相关问题与使用: 常见问题: 如果您提出极其不合适的请求,或者您要求修改一个非常小的区域,可能无法得到预期的结果。 如果您在场景中放了一个很小的头部并要求进行外绘,生成的身体可能会太大(所以请将头部放大一些)。 重纹理化:是一种通过使用另一张图像来引导图像结构或构图的方法。您将从构图引导图像开始(您在全功能编辑器中上传或链接的基础或母图像),然后使用提示词和参数来添加所需的细节。基础图像成为提示词的构图基础,或称为框架。事实上,在以前的 Midjourney 版本中,这种方法被称为“框架搭建”。在全新功能编辑器中,选择一个您喜欢的一些构图元素的基础图像。上传它或链接。然后编写控制该构图最终呈现的提示词。例如,如果你有一张三颗玻璃球的图片并提交提示词“三只刺猬”,那么这些玻璃球将“变成”刺猬。 右侧显示的缩略图:显示器右侧的缩略图显示的是您最近几次编辑会话的记录。左边稍大一点的缩略图是您的母图像,即您上传或链接的图像。其他四张缩略图是子图像,展示了 Midjourney 根据您的提示生成的四种不同表达方式。每次您在不改变选择区域的情况下对母图像进行编辑时,会生成一个新的缩略图行,这样您对该选择区域的所有编辑都会方便地聚在一起。不过,如果您更改了提示词,新提示词对应的图像会显示在子图像中,而不会显示在母图像所在的那一行。 按钮:(未给出具体解释)
2024-12-13
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06
SD怎么学习简单
学习 Stable Diffusion(SD)可以从以下方面入手: 学习 SD 提示词: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录。 运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。 等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开。 即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。 尝试生成图像,观察不同参数对结果的影响。 学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。 学习如何导入自定义模型、VAE、embedding 等文件。 掌握图像管理、任务管理等技巧,提高工作效率。 总之,学习 SD 需要多方面的知识和经验积累。初学者可从官方资料入手,掌握基本概念;中级阶段需大量实践,培养敏锐度;高级阶段则要追求创新性、挖掘新维度。持续的学习、实践和总结反馈,是成为高手的必由之路。
2025-01-04
怎么看sd的插件不兼容
SD 插件不兼容可能有多种情况和解决方法: 对于提示词服从度增强插件,当生成图与提示词不太相符时,可以通过多刷图来找到符合需求的绘图。若条件太多始终达不到效果,可提高 cfg 值并启用修复插件。但开启插件并提高 CFG 值后,画面可能会发黄,颜色偏差可利用 PS 做后续调整。安装方式可以在扩展列表中搜索插件名字,或放在特定路径文件夹下,安装完成后重启 webUI 即可启用。 对于无需 Lora 的一键换脸插件 Roop,安装时间较长,需耐心等待。安装过程包括在特定文件夹地址栏输入“cmd”回车,在打开的 dos 界面粘贴代码安装 insightface。若出现错误,可下载最新秋叶 4.2 整合包。安装完成后重新打开启动器,后台会继续下载模型,需全程科学上网。使用时要注意参数设置,人脸像素可能偏低,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。此插件谨慎使用,切勿触犯法律。获取插件可添加公众号【白马与少年】回复【SD】。
2025-01-02
SD如何人物换脸
以下是关于 SD 人物换脸的详细步骤: 1. 安装 Roop 插件:安装时间较长,需耐心等待。安装好后打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 2. 后续操作:安装完成后重新打开启动器,后台会继续下载模型,全程要保证科学上网。Roop 插件主要适用于真实人脸替换,对二次元人物作用不大。选用真实系模型“realisticVisionV20”,关键词描述人物。启用 Roop 插件,选择要替换的人物照片,面部修复选“GFPGAN”,右边参数数值越低人物越像但图像模糊,数值越高人物越不像但图像清晰,可根据需求设置,如 0.5。设置好后点击生成,若人脸像素偏低模糊,可将图发送到“图生图”,开较小重绘幅度,使用 controlnet 中的 tile 模型重绘。 3. 多人物脸部替换:先正常生成图片,如两个古风人物形象。发送到图生图中调整重绘幅度。在 roop 插件中,从左往右编号,载入相应人物照片形象进行脸部替换。 4. 获取插件:想要 Roop 插件,可添加公众号【白马与少年】,回复【SD】。 另外,还有关于 SD 中更精确蒙版的操作,如使用 GroundingDINO 模型分割:启用 GroundingDINO 时 AI 会自动下载模型,也可在云盘下载放到特定文件目录。在检测提示词中输入如“eye”,可自动检测出相应部分并设置蒙版,还能通过预览箱体得到编号选择调整单一部分。选择要修改的蒙版上传到重绘蒙版,添加提示词生成。给人物换背景时,加载生成的背景蒙版,选择大模型和正向提示词,蒙版模式选“重绘非蒙版内容”,生成后可再次放入图生图中细化,还可在 PS 中修复。 特别提醒,使用相关插件需谨慎,切勿触犯法律。
2024-12-31
SD插件
以下是关于 SD 插件的相关信息: 1. 【SD】无需 Lora,一键换脸插件 Roop: 安装时间较长,需耐心等待。安装好后打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”自动安装 insightface。若此阶段出错,建议下载最新秋叶 4.2 整合包(6 月 23 号更新),后台回复【SD】可在云盘下载。安装完成后重新打开启动器,后台会继续下载模型,全程需科学上网。此插件主要适用于真实人脸替换,对二次元人物作用不大。选用真实系模型“realisticVisionV20”,设置相关参数后点击生成,人脸像素可能偏低模糊,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。想要此插件,可添加公众号【白马与少年】回复【SD】。使用时需谨慎,切勿触犯法律。 2. 【SD】手涂蒙版定位插件 Latent Couple: 主提示词描述小鸟站在女孩肩上的画面、女孩装束和周围环境等,色块对应小鸟和女孩提示词后点击发送。填上常用标准负向提示词,大模型选择“revAnimated_v122”。多次生成后选择不错的进行高清修复放大。使用此插件可更灵活控制构图。想要此插件,可添加公众号【白马与少年】回复【SD】。 3. 【SD】告别提示词颜色污染!Cutoff 插件: 作者为白马少年,发布于 20230811 20:01,原文网址:https://mp.weixin.qq.com/s/xVskDEjDUET6yFo1YSZvTg 。在使用 Stable Diffusion 绘画时会出现颜色词汇互相污染的情况,此插件可解决该问题。因未收录到官方插件列表,可到 https://github.com/hnmr293/sdwebuicutoff 或作者云盘链接下载,安装后重启即可看到该插件。
2024-12-30
SD软件免费下载
以下是关于 Stable Diffusion(SD)相关软件和插件的信息: 1. 【SD】告别提示词颜色污染!Cutoff 插件: 该插件能解决 SD 绘画中颜色互相污染的问题。 未收录到官方插件列表,可到 https://github.com/hnmr293/sdwebuicutoff 下载,或到作者云盘链接下载。安装后重启即可使用。 2. 【SD】无需 Lora,一键换脸插件 Roop: 安装时间较长,需耐心等待。 安装步骤包括打开特定文件夹,在地址栏输入“cmd”回车,粘贴代码“python m pip install insightface==0.7.3 user”安装 insightface。 若安装出错,可下载最新的秋叶 4.2 整合包(6 月 23 号更新),回复【SD】获取云盘下载包。 安装完成后,重新打开启动器,后台会继续下载模型,需全程科学上网。 插件主要适用于真实人脸替换,对二次元人物作用不大。 可添加作者公众号【白马与少年】,回复【SD】获取插件。 3. 【SD】SD 的大哥 Fooocus 重磅问世,三步成图傻瓜式操作: Fooocus 使用最新推出的 SDXL 1.0 模型,结合了 stable diffusion 和 Midjourney 的优点。 保留了 SD 的开源属性,可部署到本地免费使用,操作界面简洁,省去了 WebUI 中复杂的参数调节。 勾选“Advanced”会弹出高级设置窗口,可调整多种参数。 风格选项整合了 100 多种不同预设风格。 配置要求:本地部署,需要不低于 8GB 的内存和 4GB 的英伟达显卡。 介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G) 使用指南:https://github.com/lllyasviel/Fooocus/discussions/117 大模型(base 和 Refiner)默认放在:\\Fooocus_win64_1110\\Fooocus\\models\\checkpoints
2024-12-26
ai生成服装模特视频
以下是一些与生成服装模特视频相关的 AI 技术和应用: 1. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 2. 生成式人工智能在营销中的应用:Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 此外,还有一些其他相关的 AI 技术,如: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画,Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。相关链接:GitHub:https://github.com/novitalabs/AnimateAnyone ;API:https://novita.ai/playgroundanimateanyone ;https://x.com/imxiaohu/status/1796191458052944072 2. 音频生成方面,有 Udio130 音乐生成模型,能生成 2 分钟的音频,提升曲目连贯性和结构,新增高级控制功能。相关链接:详细:https://xiaohu.ai/p/8738 ;https://x.com/imxiaohu/status/1795999902830629249 3. 代码生成方面,有 Mistral AI 推出的 Codestral 代码生成模型,支持 80 多种编程语言,包括 Python、Java、C 等,能自动完成代码、编写测试,并能填补未完成的代码部分,拥有 32k 上下文窗口,在多项基准测试中表现出色。相关链接:详细:https://mistral.ai/news/codestral/ ;https://x.com/imxiaohu/status/1795987350713192937 4. 音乐演示方面,有 Suno 音乐演示,新视频展示从任何声音创作歌曲。相关链接:https://x.com/imxiaohu/status/1795976717905043467
2025-01-06
ai生成服装模特图的工具
以下是一些可以生成服装模特图的工具: 1. DALLE 2:已被用于广告,如亨氏、雀巢、Stitch Fix 等公司的相关应用。Stitch Fix 正在尝试使用它根据客户对颜色、面料和款式的偏好创建服装可视化。 2. 可以使用万能固定句式来生成服装模特图,如“「主题」+「风格」+「材质」+「元素」+「玄学佐料」”,并通过具体的示例和咒语关键词来实现,如“Chinese dress”。 3. TryOffDiff:能够逆向打造服装图片,将衣服从照片中“摘取”生成标准化服装图,保留图案、褶皱、徽标等精细细节,适用于商品目录制作及电商平台服装展示需求。详细介绍:
2025-01-06
目前最前沿的ai服装模特app
目前较为前沿的 AI 服装模特相关的应用有: Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 InterAlia 可以帮助搭配服装。 在小红书上,有通过 AI 制作服装如 AI 小绿裙实现变现的案例,新手可用 mewxai 或幻火来制作,熟练者可用 sd 或 mj 制作。 此外,还有用 AI 定制萌娃头像等相关应用。
2025-01-06
服装模特拍摄,不同姿势。用什么ai
以下是为您提供的一些可能适用于服装模特拍摄不同姿势的 AI 相关信息: Ready Player Me 服装设计创新:使用 Stable Diffusion 和 ControlNet 生成服装纹理,能根据文本描述自动创建样式,如“蒸汽朋克”风格,适用于 3D 模型,包含真实细节和质感,支持多种风格,快速试验设计理念,训练数据集包含约 1000 个 Ready Player Me 资产。 在 AI 原画设计中,如引导 Nijijourney 5 生成多样化二次元角色设计风格时,可以通过不同的科幻奇幻题材风格,如赛博朋克、蒸汽朋克等作为关键词生成角色设计。还可以尝试不同的服装设计品牌和风格,如山本耀司(Yamamoto Yohji)、川久保玲(Rei Kawakubo),为角色创作提供更广泛的可能性。 RADicalMotionAI 面部捕捉技术:能同时捕捉视频中的身体动作和面部表情,适用于单一视频并转化为动画数据,支持实时发送到 Blender、Unity、Unreal Engine,动画数据可导出为 FBX 格式。
2024-08-25
我想要学AI视频,我应该怎么做
以下是学习 AI 视频的一些建议和资源: 1. 入门教程: 您可以查看。 学习。 2. 交流群: 如需学习 AI 视频、参与 AI 视频挑战赛或参与 AI 视频提示词共创,可直接扫二维码或联系三思或小歪【备注:AI 视频学社】,但必须有 AI 视频账号才能进群,请勿随便申请好友。 3. 直播: AI 视频学社每周 1 次直播(周五直播),例如。 4. 实践建议: 从简单创作开始,如生成零散视频片段或图片进行混剪,选用现成音乐并根据节奏简单剪辑,顺道学习主流创意软件操作。 在成功产出简单作品后,尝试完成更完整的工作流,比如:选题→剧本→分镜描述→文生图→图生视频→配音配乐→剪辑后期。 此外,在 AI 视频学社,小伙伴们可以通过参与每周举办的比赛快速学习相关知识,每周有高手直播分享前沿知识,不定期组织线上或线下活动,大家一起学习最新软件和知识,学习图生视频、视频生视频等技巧。
2025-01-06
AI生成视频
以下是关于 AI 生成视频的相关内容: Adobe 网站的生成视频相关操作: 在 Advanced 部分,您可以使用 Seed 选项添加种子编号,以帮助启动流程并控制 AI 创建的内容的随机性。如果使用相同的种子、提示和控制设置,则可以重新生成类似的视频剪辑。选择 Generate 进行生成。 将小说制作成视频的流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 AI 视频生成的技术发展概况和应用场景思考: 长期以来,人们对 AI 视频技术应用的认知停留在各种“换脸”和视频特效上。随着 AI 图像领域的技术发展,AI 视频技术也逐渐取得了突破。从交互方式来看,当前 AI 视频生成主要可分为文本生成视频、图片生成视频、视频生成视频三种形式。一些视频生成方法是先生成静态关键帧图像,然后构建为视频序列。也存在直接端到端生成视频的技术,无需进行多阶段处理即可生成视频,如基于 GAN、VAE、Transformer 的方法。微软 NUWAXL 是通过逐步生成视频关键帧,形成视频的“粗略”故事情节,然后通过局部扩散模型(Local Diffusion)递归地填充附近帧之间的内容。
2025-01-06
国内有什么生成视频的AI应用么
以下是国内一些生成视频的 AI 应用: 1. 可灵:在 AI 视频生成领域表现出色,具有卓越的视频生成质量,生成的视频在画面清晰度、连贯性和内容丰富性上可与国际顶级模型媲美。生成速度快,处理效率高,且对国内用户的可访问性强,提供了便捷、稳定的使用体验。 2. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 3. Hidreamai:有免费额度,支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持多种控制,可生成不同时长和尺寸的视频。 4. ETNA:由七火山科技开发的文生视频 AI 模型,能根据简短文本描述生成相应视频内容,视频长度 8 15 秒,画质可达 4K,支持中文,时空理解。 更多的文生视频网站可以查看: 需注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-06
如何生成一个人慢慢变成动物的视频?
以下是几种生成一个人慢慢变成动物的视频的方法: 1. 利用通义万相视频模型,例如生成“古风女孩从人变身成一只狐狸”的视频,您可以通过以下链接获取相关视频: 2. 在剪映中操作: 打开“数字人”选项,选取适合的数字人形象,如“婉婉青春”,添加数字人,软件会根据提供的内容生成对应音视频。 增加背景图片,删除先前导入的文本内容,上传本地图片并调整其位置和大小。 3. 使用 Runway 软件:将图片拖到 Runway 里面生成 4s 视频,进入 Runway 官网首页,点击 start with image,直接将图片拖进来,动画幅度尽量用 3,5 有时候会乱跑,不需要等进度条转完,可以直接继续往里放图片。(Runway 是收费的,您也可以找一下有没有免费的,或者去闲鱼或者淘宝买号)
2025-01-06
可以制作音乐视频,并且把歌词按照节奏显示出来的AI平台有哪些
以下是一些可以制作音乐视频,并能按照节奏显示歌词的 AI 平台: 1. 梁明晶所介绍的平台:上传音频后上传文本歌词到 TXT 里,通过自带功能同步制作逐字歌词 TRC,修正错别字后提交,审核成功可在 QQ 音乐、酷狗、酷我 3 个平台同步显示。 2. 人工智能音频初创公司列表中的平台: :无需昂贵录音设备即可进行多轨录音。 :生成歌词、旋律、鼓点等,并能像专业 DAW 一样编辑和混音。 :AI 驱动,可创作歌词、节拍和人声,直接混音和发布。 :创作情感背景音乐。 :简化的音乐创作工具,为视频和播客创作音乐。 :为直播游戏玩家提供自适应 AI 音乐。 :高质量音乐和音效,包含版权。 :世界上第一个动态音乐引擎。 (被 Shutterstock 收购):为内容创作者提供的 AI 音乐创作工具。 :虚拟音乐工作室。 :即时制作音乐并分享。 :智能乐谱。 :由艺术家、研究人员、设计师和程序员组成的团队。 此外,在 SUNO 和 UDIO 平台的音乐制作中,其底层技术基于扩散模型,生成音乐时根据提供的提示词和上传的音频进行扩散生成,需考虑和声/调性、节奏型、人声或器乐编配、音色、音频质量、音频长度等元素。
2025-01-06
AI视频
以下是关于 AI 视频的相关内容: 1. 来来的 AI 视频短片工作流: 概念设定:MJ 剧本+分镜:ChatGPT AI 出图:MJ、SD、D3 AI 视频:Runway、pika、PixVerse、Morph Studio 对白+旁白:11labs、睿声 音效+音乐:SUNO、UDIO、AUDIOGEN 视频高清化:Topaz Video 字幕+剪辑:CapCut、剪映 完整文档: 直播回放: 2. Bay 的 AI 视频生成(上): 长期以来,人们对 AI 视频技术应用的认知停留在各种“换脸”和视频特效上。 随着 AI 图像领域的技术发展,AI 视频技术逐渐取得突破。 从交互方式来看,当前 AI 视频生成主要可分为文本生成视频、图片生成视频、视频生成视频三种形式。 一些视频生成方法是先生成静态关键帧图像,然后构建为视频序列。也存在直接端到端生成视频的技术,无需进行多阶段处理即可生成视频,如基于 GAN、VAE、Transformer 的方法。 微软 NUWAXL:通过逐步生成视频关键帧,形成视频的“粗略”故事情节,然后通过局部扩散模型(Local Diffusion)递归地填充附近帧之间的内容。 3. Bay 的 AI 视频生成(下): 若从生成方式分类,AI 视频生成包含: 文生视频、图生视频(Runway、Pika labs、SD+Deforum、SD+Infinite zoom、SD+AnimateDiff、Warpfusion、Stability Animation) 视频生视频:又分逐帧生成(SD+Mov2Mov)、关键帧+补帧(SD+Ebsynth、Rerender A Video)、动态捕捉(Deep motion、Move AI、Wonder Dynamics)、视频修复(Topaz Video AI) AI Avatar+语音生成:Synthesia、HeyGen AI、DID 长视频生短视频:Opus Clip 脚本生成+视频匹配:Invideo AI 剧情生成:Showrunner AI 若从产品阶段和可用维度分类,将按照相关维度进行产品介绍。
2025-01-06