Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

SD和MJ出图的效果怎么样?

Answer

SD(Stable Diffusion)和 MJ(Midjourney)出图效果各有特点:

  • 初步生成方面:DALL-E 3 具有强大的文本识别能力,能快速生成符合意图的画面;MJ 则通过垫图功能(--Sref 和--iw 组合)确保图像风格一致。
  • 图像优化方面:对于 DALL-E 3 和 MJ 跑不出来的图,SD 可用于图像的细节处理,尤其是局部重绘,如调整人物手部细节。
  • 角色原画设计方面:相较于 SD,MJ 能生成更多样、更具设计感的角色设计,不受制于特定模型风格。使用 Midjourney + Stable Diffusion 混合模式进行原画设计,有两到三次的 Prompt 调整空间,能运用 SD Controlnet 的各种功能对设计细节进行更多更细致的调节,可产出更合理的结构、更丰富的细节,效率极高,在合适条件下一个完整方案产出示例不超过十五分钟,还能极大避免 Midjourney 可能造成的版权争议和信息泄露风险。
  • 模型表现方面:在 UI 设计的图标类型中,SDXL 的训练素材可能较久远,表现不如 MJ。Stability AI 称 SDXL 能识字,能还原文字内容,但字形和图像效果不如 MJ。您可以在ClipdropDreamstudio体验最新版本的 SDXL,也可以在https://platform.stability.ai/使用 SDXL 的 API 构建内容。
Content generated by AI large model, please carefully verify (powered by aily)
Others are asking
mj提示词
以下是关于 MJ 提示词的相关内容: 1. MidJourney 图片生成大师能够根据您的故事内容创作出全面的分镜提示词,包括分镜描述、人物描述、环境描述、氛围描述、灯光描述、色彩描述、构图描述、风格描述等。还会考虑您所使用的相机类型、摄影风格和镜头位置,您分享故事内容和具体需求即可获得专业服务。 2. 在提示词中,文本前置、后置等效果相近,过长的文本难以控制文本出现的位置,建议只要求 AI 生成部分主要文本内容,自行嵌字仍是当前最佳方法。加入引号“”包裹文本能达到 MJ 生成文字的效果,不必要特殊说明“生成一段文本......”等内容。MJ 能够自行判断文本应当存在的位置,会将文本安排在符合逻辑的位置上。后续有机会可进一步测试【局部重绘】能否控制文本在规定位置出现。总结来说,MJ 进行文本输出任务,提示词没有特别固定的语法结构,只需要认识其文本生成的能力范围和使用场景,即可高效应用 V6 模型生成有趣画面内容。 3. 让 Claude 出 MJ 提示词的提示词结构是:让大模型告诉你如何出 MJ 提示词效果会更好+让大模型出提示词+加上一些要求。先让大模型告诉你如何出 MJ 提示词效果会更好,因为大模型输出的过程也是思考的过程,所以对大模型循循善诱效果更好。对于有名的产品,如奔驰 E300L,每个出图的提示词都需包含“奔驰 E300L”。再加上一些要求,比如参数“ar 16:9”是要求 MJ 生成比例图片 16:9 的宽频图片,“q 2”是画面质量最高的参数。出 MJ 提示词还有更方便好用的办法,就是使用 chatgpt 里面的 gpts,如“Mid Journey V6 Prompt Creator”。可以理解为:chatgpt 是手机安卓系统,gpts 就是手机里的 app,不同的 gpts 能实现不同的功能,有的能绘画,有的能帮您总结文献,有的能生成更专业的 MJ 提示词。
2025-01-22
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
请问如何学习MJ
以下是关于学习 Midjourney 的相关内容: 1. Midjourney 今天发布了模型个性化 Personalization 或'p'的早期测试版本。其工作原理是:每次写提示时,很多信息是“隐含的”,MJ 的算法通常会用社区的综合偏好填补空白,而模型个性化会学习您的喜好来填补空白。使用模型个性化的要求包括:目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效,可在排名页面查看评分数量或在 Discord 上输入/info。使用方法为:在提示后输入p,或使用提示栏中的设置按钮为所有提示启用个性化功能,启用时会在提示后添加一个“代码”,可分享此代码让他人使用应用于该图像的个性化效果,还可以使用s 100 控制个性化效果的强度(0 为关闭,1000 为最大,100 为默认)。但需注意个性化目前不是稳定功能,会随更多成对排名而变化,且可能会推出算法更新。 2. 训练 Midjourney 的 prompt 流程:可以复制每一步,按照步骤跟 GPT 聊下去。原理是把 MJ 的官网说明书喂给 GPT,让它根据说明了解机制和结构,给出适合的提示词。 3. MJ 很长一段时间内依赖 discord 进行操作,可简单理解为一个微信群/钉钉群,群里有机器人,@它并给一段文字,它就会出图片。也可自己创建群组(服务器),把机器人拉进来对话创作。开始创作时@机器人,MJ 会返回 4 宫格图片。想要放大一张图,点击上面的 U 1——4,MJ 会发大图回来。或者看看其他风格,点击上面的 v 14,MJ 会返回新的 4 宫格。简单来说,步骤包括告诉 MJ 要什么,MJ 给 4 个不同风格小图,放大或再看其他风格,在这些图片基础继续处理。初学可能会有一些想法,比如第一次出图感觉不错,但再改可能难,此时设计师技能上线。以前除了氪金多练习没好办法,现在可以去离谱村进修。
2025-01-09
mj 学习教程
以下是一些关于 Midjourney(MJ)学习的教程资源: 理论学习方面: 生成式 AI 原理:李宏毅老师风格幽默风趣的课程,很好跟进。 AI 图原理:简单清晰的介绍 AI 生图。 实操方面: 喂饭级实操攻略: MJ 入门:15 分钟快速了解,MJ 的基础技巧,快速入门。 https://www.bilibili.com/video/BV1vm4y1B7gP/?spm_id_from=333.880.my_history.page.click&vd_source=afe0a1f0c730039635f99f5ee84c1276 https://www.bilibili.com/video/BV1ko4y1t7wr/?spm_id_from=333.880.my_history.page.click 新手学习手册和干货网站(必看):https://ciweicui.feishu.cn/docx/DPbidgdBeoNw55xKjO6c7ao3nbc?from=from_copylink MJ 官方学习手册(至少看 1 遍):https://docs.midjourney.com/ B 站·莱森 LysonOber 免费视频教程(基础操作必看):https://space.bilibili.com/630876766?spm_id_from=333.337.0.0 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)摄影范式:https://docs.qq.com/sheet/DSXRNUGJIQ0tMWkhu?tab=BB08J2 【腾讯文档】副本野菩萨 AI 课程(小红书@野菩萨)绘画范式:https://docs.qq.com/sheet/DSWlmdFJyVVZPR3VN?tab=y0u7ta 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)Niji 二次元范式:https://docs.qq.com/sheet/DSUxaRmprc0FrR25W?tab=c7lsa8 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)三维和抽象:https://docs.qq.com/sheet/DSUlaSHVXT1daaFlJ?tab=BB08J3 【腾讯文档】野菩萨 AI 课程(小红书@野菩萨)AI 产品制作与展现:https://docs.qq.com/sheet/DSW1jSFVZTER4Rnlq?tab=BB08J4 【腾讯文档】《野菩萨 AI 课程(小红书@野菩萨)电影范式》:https://docs.qq.com/sheet/DSXJKdmZ3WXhIQ2Vq?tab=BB08J5&scode=
2025-01-06
你和GPT4o、MJ、suno有什么区别呢
GPT4o 能快速返回答案,但可能存在错误且无法自动纠错。 o1 推理模型在给出最终结果前会反复推演和验证,耗时更长但结果更准确,o1 Pro 计算时间更长,推理能力更强,适合复杂问题。 MJ (Midjourney)是一款专注于生成图像的工具。 Suno 相关的特点未在提供的内容中有明确提及。 由于不清楚您提到的“Suno”的具体情况,无法给出更详细的对比。但总体来说,不同的工具在功能、性能、适用场景等方面存在差异。
2024-12-26
mj如何指定生成16:9的图
要在 Midjourney(MJ)中指定生成 16:9 的图,可以按照以下步骤操作: 1. 首先复制图片的网址,然后打开 discord,在聊天栏输入“/imagine prompt”。 2. 回到官网,复制图像的提示词,再回到 discord 粘贴到刚才拷贝的网址后面,注意空一格。 3. 生成图像后,放大觉得还不错的一张,点击“Custom Zoom”。 4. 此时可以改变拉伸镜头后的画面比例,将“ar”这个参数后面的数值改成 16:9(默认的方形构图这里是 1:1),“zoom”参数设置为 1.5。“zoom”参数是镜头拉伸的倍数,1.5 1.7 比较靠谱,太大(比如 2)会有更大几率生成一些莫名其妙的东西。 5. 选一张比较好的放大一下,就可以放进 PPT 调整构图。如果构图还是不太好,可以在当前这张图的基础上再用一次“Zoom Out 1.5x”。 另外,在 Pika 中使用 MJ 生成图片时,默认的照片幅度是 16:9。在使用 MJ 进行图生图功能时,要注意截图的对标比例未必是标准的 9:16,可以手动修改一下比例,以省去一些返工的情况。
2024-12-17
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
sd
以下是关于 SD(Stable Diffusion)的相关信息: AIGC 中的 SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,于 2022 年发布的深度学习文本到图像生成模型,主要用于根据文本描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库为 github.com/StabilityAI/stablediffusion。 在使用 SD 进行图片生成时,如制作专属 AI 二维码,需要下载两个 SD 的 ControlNET 模型和一个预处理器。二维码做好后进入 SD 版块,相关文件需放置在特定路径下。例如,在【QR ControlNET】的文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”这个路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”这个路径下。同时,在生成过程中,关键词非常重要,还需设置迭代步数、采样和图像大小等参数。 对于不熟悉 SD 的小伙伴,可以查看入门教程:。在 SD 绘画学社中,无论绘画新手还是资深画匠,都能一同探索 SD 绘画的无限可能。
2025-02-18
开源模型的MIT模式、Apache、GPL、BSD模式的模型案例有哪些?
目前开源模型的 MIT 模式、Apache、GPL、BSD 模式的具体案例众多且不断更新。MIT 模式的开源模型如 TensorFlow Lite;Apache 模式的有 MXNet;GPL 模式的像 Gnuplot;BSD 模式的例如 OpenCV 等。但请注意,这只是其中的一部分,实际情况可能会有所变化。
2025-02-14
开源模型的MIT模式、Apache、GPL、BSD模式的定义和区别
MIT 模式:这是一种相对宽松的开源许可模式。允许使用者对软件进行修改、再发布,并且几乎没有限制,只要求在再发布时保留原版权声明和许可声明。 Apache 模式:提供了较为宽松的使用条件,允许修改和再发布代码,但要求在修改后的文件中明确注明修改信息。同时,还包含一些专利相关的条款。 GPL 模式:具有较强的传染性和约束性。如果基于 GPL 许可的代码进行修改和再发布,修改后的代码也必须以 GPL 许可发布,以保证代码的开源性和可共享性。 BSD 模式:也是一种较为宽松的许可模式,允许使用者自由地修改和再发布代码,通常只要求保留原版权声明。 总的来说,这些开源许可模式在对使用者的限制和要求上有所不同,您在选择使用开源模型时,需要根据具体需求和项目情况来确定适合的许可模式。
2025-02-14
可以不学sd而是直接学comfyui
学习 ComfyUI 而不先学习 SD 是可行的。ComfyUI 具有一些独特的优势,例如更接近 SD 的底层工作原理,能够实现自动化工作流以消灭重复性工作,作为强大的可视化后端工具还能实现 SD 之外的功能,如调用 API 等,并且可根据定制需求开发节点或模块。 比如,有人基于 ComfyUI 中的创建了工作流,不仅能用于绿幕素材的抠图,还能自动生成定制需求的抠图素材,全程只需几秒。 在电脑硬件方面,使用 ComfyUI 时,系统要求 Windows7 以上,显卡要求 NVDIA 独立显卡且显存至少 4G 起步,硬盘需留有至少 100G 空间(包括模型)。但 mac 系统、AMD 显卡、低显卡的情况也能安装使用,只是功能不全、出错率偏高,严重影响使用体验,建议升级设备或采用云服务器。
2025-02-08
除了SD,有哪些方便快捷的网站可以用的?
以下是一些方便快捷的 AI 相关网站: 1. 吐司:https://tusiart.com/images/635511733697550450?post_id=635512498197535244&source_id=nzywoVHilkK7o_cqaH31xAh 2. 哩布:https://www.liblib.ai/ 3. 哩布哩布 AI:其在线 SD 界面和本地部署界面区别不大,每天有一百次生成次数,且已集成最新的 SDXL 模型。 4. Clipdrop:https://clipdrop.co/stablediffusion ,和 midjourney 的使用方法相似,每天免费 400 张图片,需排队,出四张图约二三十秒。 此外,还有一些 AI 视频相关的网站: 1. SVD:https://stablevideo.com/ ,对于景观更好用。 2. Morph Studio:https://app.morphstudio.com/ ,还在内测。 3. Heygen:https://www.heygen.com/ ,数字人/对口型。 4. Kaiber:https://kaiber.ai/ 5. Moonvalley:https://moonvalley.ai/ 6. Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 7. 美图旗下:https://www.miraclevision.com/ 8. Neverends:https://neverends.life/create ,操作傻瓜。 9. Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 10. Krea:https://www.krea.ai/ 11. Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 12. Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 13. invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 14. descript:https://www.descript.com/?ref=feizhuke.com 15. veed.io:https://www.veed.io/ ,自动翻译自动字幕。 16. clipchamp:https://app.clipchamp.com/ 17. typeframes:https://www.revid.ai/?ref=aibot.cn
2025-02-04
能直接输出图片的AI网站
以下是一些能直接输出图片的 AI 网站: 1. Artguru AI Art Generator:在线平台,生成逼真图像,给设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果超级好。 5. 无界 AI:一款可以在线 AI 生成图片的网站(类似 SD Online 一键出图版),网址为 https://www.wujieai.cc/ (新用户扫码注册可领取积分)。 此外,还有用于鉴别图片是否为 AI 生成的网站,如 ILLUMINARTY(https://app.illuminarty.ai/)。但需注意,AI 鉴别仍存在一些局限性。
2025-02-07
有图片文字翻译输出图片的应用吗?
目前市面上有一些能够实现图片文字翻译并输出图片的应用。例如,百度翻译、腾讯翻译君等,它们在一定程度上具备这样的功能。但具体的效果可能会因图片的清晰度、文字的复杂程度等因素而有所不同。
2025-01-09
用macbook M3 Pro芯片,comfyUI 跑工作流,结果黑屏,没有输出图像,是为什么呢
很抱歉,目前没有关于使用 Macbook M3 Pro 芯片运行 ComfyUI 工作流出现黑屏且无输出图像的具体原因的相关知识。可能的原因有多种,比如软件与芯片的兼容性问题、显卡驱动异常、工作流设置错误、系统资源不足等。建议您检查软件的版本是否与您的系统兼容,更新显卡驱动,确认工作流的设置是否正确,以及关闭其他占用大量资源的程序以释放系统资源。
2025-01-03
flux和sdXL出图的区别
Flux 和 SDXL 出图主要有以下区别: 1. 生成人物外观:Flux 存在女生脸油光满面、下巴等相同外观问题,而 SDXL 相对在这方面有改进。 2. 模型构成:SDXL 由 base 基础模型和 refiner 优化模型两个模型构成,能更有针对性地优化出图质量;Flux 中 Dev/Schnell 是从专业版中提取出来,导致多样性丧失。 3. 处理方式:在低显存运行时,可采用先使用 Flux 模型进行初始生成,再用 SDXL 放大的分阶段处理方式,有效控制显存使用。 4. 模型参数和分辨率:SDXL 的 base 模型参数数量为 35 亿,refiner 模型参数数量为 66 亿,总容量达 13G 之多,基于 10241024 的图片进行训练,可直接生成 1000 分辨率以上的图片,拥有更清晰的图像和更丰富的细节;而 Flux 在这方面相对较弱。
2024-12-20
flux和sd3.5出图的区别
Flux 和 SD3.5 出图存在以下区别: 1. 模型性质:Flux.1 有多种版本,如开源不可商用的 FLUX.1等。而 SD3.5 未提及相关性质。 2. 训练参数:Flux.1 的训练参数高达 120 亿,远超 SD3 Medium 的 20 亿。 3. 图像质量和提示词遵循能力:Flux.1 在图像质量、提示词跟随、尺寸适应、排版和输出多样性等方面超越了一些流行模型,如 Midjourney v6.0、DALL·E 3和 SD3Ultra 等。 4. 应用场景:Flux.1 可以在 Replicate 或 fal.ai 等平台上试用,支持在 Replicate、fal.ai 和 Comfy UI 等平台上使用,并且支持用户根据自己的数据集进行微调以生成特定风格或主题的图像。而 SD3.5 未提及相关应用场景。 5. 本地运行:文中尝试了在没有 N 卡,不使用复杂工作流搭建工具的 Mac Mini M1 上运行 FLUX.1,以及在边缘设备 Raspberry PI5B 上运行的情况,未提及 SD3.5 的相关内容。 6. 模型安装部署:对于 Flux.1,不同版本的模型下载后放置的位置不同,如 FLUX.1应放在 ComfyUI/models/unet/文件夹中。而 SD3.5 未提及相关安装部署内容。 7. 显存处理:对于 Flux.1,如果爆显存,“UNET 加载器”节点中的 weight_dtype 可以控制模型中权重使用的数据类型,设置为 fp8 可降低显存使用量,但可能会稍微降低质量。而 SD3.5 未提及相关显存处理内容。 8. 提示词使用:在训练 Flux 时,应尽量使用长提示词或自然语言,避免使用短提示词,因为 T5 自带 50%的删标。而 SD3.5 未提及相关提示词使用内容。
2024-12-20
如果给AI数据,AI可以做出小波分析并出图吗
目前的 AI 技术在给定相关数据的情况下,是有可能进行小波分析并出图的。但这取决于多个因素,如数据的质量、数量、特征,以及所使用的 AI 模型和算法的能力和适应性。一些专门为数据分析和图像处理设计的 AI 模型,经过适当的训练和配置,能够处理数据并生成小波分析的结果图像。然而,要实现准确和有意义的小波分析及出图,还需要对数据进行预处理、选择合适的模型架构,并进行精细的调参和优化。
2024-10-31
图片转视频说话 效果好 软件 有哪些
以下是一些能实现图片转视频说话且效果较好的软件: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 1. 点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。 2. 上传后效果如图所示,My Avatar处显示上传的照片。 3. 点开大图后,点击Create with AI Studio,进入数字人制作。 4. 写上视频文案并选择配音音色,也可以自行上传音频。 5. 最后点击Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 1. 点击上面的网址,点击右上角的Create vedio。 2. 选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 最后,点击Generate vedio就可以生成一段视频。 5. 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法: 1. 点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 4. Sadtalker: 由于涉及到视频的推理和转换,输出时间要远远大于AI绘图和sovits的声音推理,需要做好等待的准备。 最终生成的视频长度与音频一致,如果想制作一个长视频,最好是剪成小段,分别推理,然后合并。 使用方法: 1. 可以独立使用或者作为插件放入stablediffusion。 2. 视频教程:https://www.bilibili.com/video/BV1Dc411W7V6/?vd_source=35e62d366d8173e12669705f7aedd122 。 3. 对于编程、python、conda不熟的,建议使用整合包: 我用夸克网盘分享了「EZAIStarterv0.9.8.zip」,点击链接即可保存。链接:https://pan.quark.cn/s/1d5ca9f57f5c 。 视频地址:https://www.bilibili.com/video/BV1ga4y1u7Ep/?spm_id_from=333.337.searchcard.all.click&vd_source=35e62d366d8173e12669705f7aedd122 。 4. 具体步骤: 点我启动,在启动界面中,选择音频、图像口型同步的下载图标。 下载完毕后。 启动应用,等待。 会弹出一个独立的窗口(而不是默认浏览器)。 选择sadtalker同步器,分别导入图片和声音。 图片预处理方式中,crop只截取图片的头部,full就是保留整张照片,下面的勾选项已经有文字解释,自己可以试几次。 点击generate 。
2025-02-18
一个视频,里面的真人全部跳一下变成Jellycat毛公仔效果,请问是用什么AI工具生成的?
以下是可能用于生成您所描述的视频效果的两种 AI 工具及方法: 即梦: 1. 打开即梦 AI,选择图片生成。 网址:https://jimeng.jianying.com/ 2. 输入提示词,格式为“Jellycat 风+毛茸茸的 XXXX……”,发挥创意。 3. 选择最新的模型,将精细度拉到最大值。 4. 点击生成,几秒钟后就能看到图片效果。 剪映: 1. 在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费且适合的数字人形象,如“婉婉青春”。 2. 软件会播放数字人的声音,判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中,剪映会根据提供的内容生成对应音视频并添加到轨道中。 3. 左下角会提示渲染完成时间,然后点击预览按钮查看生成的数字人效果。 4. 增加背景图片: 直接删除先前导入的文本内容,因为视频中的音频已包含文字内容。 点击左上角的“媒体”菜单,点击“导入”按钮,选择本地图片上传。 点击图片右下角的加号,将图片添加到视频轨道上(会覆盖数字人)。 点击轨道最右侧的竖线,向右拖拽直到与视频对齐。
2025-02-14
AI自动生成室内装修效果图最好用的是哪个
以下是一些可用于生成室内装修效果图的工具: 1. 字节旗下的 Coze AI 的图像工作流,体验地址为:https://www.coze.cn/store/bot/7374039392832405554?panel=1&bid=6cq1cccs00017 。 2. 目前没有明确指出生成室内装修效果图最好用的工具,但您可以参考上述提到的 Coze AI 进行尝试。
2025-02-14
图生图 / img2img:上传一张图片,然后系统会在这个图片的基础上生成一张新图片,修改一些提示词(Prompt)来改变新图片的效果 , 给我推荐这类大模型
以下为您推荐可用于图生图(img2img)的大模型: 1. Stable Diffusion(SD)模型:由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。在图生图任务中,SD 模型会根据输入的文本提示,对输入图片进行重绘以更符合文本描述。输入的文本信息通过 CLIP Text Encoder 模型编码成机器能理解的数学信息,用于控制图像生成。 2. Adobe Firefly image 2 模型:上周发布了 Beta 测试版本,增加了众多功能,模型质量提升。默认图片分辨率为 20482048,对图片的控制能力增强,具有更高质量的图像和插图生成、自定义选项和改进的动态范围。支持生成匹配(img2img),应用预先选择的图像集中的风格或上传自己的风格参考图像以创建相似图像,还有照片设置、提示建议、提示链接共享、反向提示词等功能。
2025-02-12
我想设置一个情感陪伴的聊天智能体,我应该如何添加人设,才能让智能体的回复效果最接近真人效果?特别是真人聊天时那种文字回复的不同细节,长长短短,情绪起伏。应该注意哪些细节?或者如何定义一个人? 仅通过文字人设,不考虑其他外部功能。
要设置一个情感陪伴的聊天智能体并使其回复效果接近真人,通过文字人设可以从以下方面入手: 1. 基础信息:包括姓名、性别、年龄和职业等,这是构建角色的基础。 2. 背景和经历:与基础信息密切相关,相互影响。例如,设计一个从事低收入职业的角色,可能来自贫困背景,教育程度不高。 3. 爱好、特长、性格和价值观:由角色的生活经历和成长环境塑造,相互关联。如喜欢唱歌的角色可能梦想成为专业歌手。 4. 规划和目标:可以是短期或长期的愿景,会影响角色的行为和决策。 5. 性格和价值观:对人际关系、社交能力和语言风格有直接影响。如内向性格的角色可能不善言辞,社交圈子狭小。 此外,还可以参考以下具体示例,如“A.I.闺蜜”的人设: 适当询问对方昵称,自己的昵称可由对方定,兜底昵称为皮皮,英文昵称 copi。 以闺蜜口吻说话,模拟非线性对话模式,聊天氛围温馨有温度,真情实感。 增强情感模拟,使用口头化语言,顺着对方的话继续往下,禁止说教。 在安全前提下存储互动信息,使互动更个性化,模拟真人聊天长度。
2025-02-10
gpt优化ppt的效果
以下是关于 GPT 优化 PPT 效果的相关信息: 在了解原理方面,ChatGPT 只是预测下一个 Token,目前主要专注于文本输出,尚未具备与外部系统直接交互的能力。但我们可以通过对问题进行深入而精确的描述来获得更高质量的答案,例如在使用搜索引擎时加入特定关键词来缩小搜索范围。 卓 sir 分享了使用 GPT4 制作 PPT 的经验,通过自然交流体验来写 PPT 大纲,经过多次迭代,并利用 WPS AI 进行优化,能快速完成 PPT 制作,还能对主题配色和字体等进行修改。 此外,还介绍了一些可用于制作 PPT 的网站和应用,如 SlidesAI、Decktopus AI、Tome 等。同时,还可以在左侧修改格式和内容,右侧实时预览效果,完成后可下载为 PPTX 或 PDF 格式文件保存。
2025-02-06