直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

SD和MJ出图的效果怎么样?

回答

SD(Stable Diffusion)和 MJ(Midjourney)出图效果各有特点:

  • 初步生成方面:DALL-E 3 具有强大的文本识别能力,能快速生成符合意图的画面;MJ 则通过垫图功能(--Sref 和--iw 组合)确保图像风格一致。
  • 图像优化方面:对于 DALL-E 3 和 MJ 跑不出来的图,SD 可用于图像的细节处理,尤其是局部重绘,如调整人物手部细节。
  • 角色原画设计方面:相较于 SD,MJ 能生成更多样、更具设计感的角色设计,不受制于特定模型风格。使用 Midjourney + Stable Diffusion 混合模式进行原画设计,有两到三次的 Prompt 调整空间,能运用 SD Controlnet 的各种功能对设计细节进行更多更细致的调节,可产出更合理的结构、更丰富的细节,效率极高,在合适条件下一个完整方案产出示例不超过十五分钟,还能极大避免 Midjourney 可能造成的版权争议和信息泄露风险。
  • 模型表现方面:在 UI 设计的图标类型中,SDXL 的训练素材可能较久远,表现不如 MJ。Stability AI 称 SDXL 能识字,能还原文字内容,但字形和图像效果不如 MJ。您可以在ClipdropDreamstudio体验最新版本的 SDXL,也可以在https://platform.stability.ai/使用 SDXL 的 API 构建内容。
内容由 AI 大模型生成,请仔细甄别(powered by aily)
其他人在问
用 mj 做文生图,Prompt 模板
以下是使用 MJ 进行文生图的 Prompt 模板: 1. 定主题:明确您需要生成一张什么主题、什么风格、表达什么信息的图。 2. 选择基础模型 Checkpoint:按照主题,找内容贴近的 checkpoint。一般喜欢用模型大佬麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等,效果较好。 3. 选择 lora:在想要生成的内容基础上,寻找内容重叠的 lora,以控制图片效果及质量。可多参考广场上好看的帖子中使用的 lora。 4. ControlNet:用于控制图片中特定的图像,如人物姿态、生成特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语的组合,不用管语法,单词、短语之间用英文半角逗号隔开。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样不用管语法,只需单词和短语组合,中间用英文半角逗号隔开。 9. 采样算法:较复杂,一般选 DPM++ 2M Karras 较多。最稳妥的是留意 checkpoint 的详情页上模型作者是否有推荐采样器,使用推荐的采样器更有保障。 10. 采样次数:根据采样器特征,选 DPM++ 2M Karras 后,采样次数一般在 30 40 之间,多了意义不大且慢,少了出图效果差。 11. 尺寸:根据个人喜好和需求选择。 另外,使用 Stability AI 基于 Discord 的媒体生成和编辑工具进行文生图时: 1. 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 2. 进入 ARTISAN 频道,任意选择一个频道。 3. 输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。 4. 输入/dream 提示词,这部分和 MJ 类似。 5. 和 MJ 手工输入参数不同,可选参数有五类: prompt:提示词,正常文字输入,必填项。 negative_prompt:负面提示词,填写负面提示词,选填项。 seed:种子值,可以自己填,选填项。 aspect:长宽比,选填项。 model:模型选择,SD3,Core 两种可选,选填项。 Images:张数,1 4 张,选填项。完成后选择其中一张。 在 MJ 应用篇儿童绘本制作、人物一致性方面: 1. 生成人物图片:确定人物形象,如“a little girl wearing a yellow floral skirt + 人物动作 + 风格词”,在 mj 中生成直到得到满意的人物图像。垫图 URL + “In the forest,a little girl wearing a yellow floral skirt is playing happily,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2”,iw 取值范围,不填写默认 iw = 1,iw 值越大越接近垫的图像,反之更接近提示词。为确保人物一致性,取 iw 2 。 2. 合成人物和场景,垫图并重新生成:使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐(若画面和谐或 PS 技术足够,也可不用图生图),将合成后的图作为垫图(iw 2),mj 重新生图,如“prompt:垫图 url + Little girl wearing a yellow floral skirt,and her friend brown bear,taking shelter in the cave,rainstorm,super high details,HDsmooth,by Jon Burgerman,s 400 ar 3:4 niji 5 style expressive iw 2”。 3. 绘本展示。
2024-11-15
有和mj差不多的网站吗
以下是一些和 Midjourney 类似的网站: 1. Stable Diffusion:是一种可根据文本生成图像的人工智能程序。 2. DALL·E2:能够根据输入的描述生成逼真的图像。 Midjourney 是一个由同名研究实验室开发的人工智能程序,可根据文本生成图像,于 2022 年 7 月 12 日进入公开测试阶段,用户可透过 Discord 的机器人指令进行操作创作图像作品。通过 Discord 的社区属性,它具有更轻量的产品形态、更简单的生图方式,且图片质量很高。MJ 具备更简单的交互,更直观的生成、放大、保留、分享功能,如果愿意购买更高级的服务,甚至可以享受更快速、更强大的增值服务。 Midjourney 官网现已向生成 100 张以上图片的用户开放了使用权限,登录 MJ 官网,左侧为各种页面入口,顶部是生成入口(prompt 框)和搜索框。在社区作品、创作(Create)以及组织(Organize)页面中,可随时使用 prompt 框和搜索框,方便查找参考和进行创作,无需频繁切换页面。还可以通过点击 prompt 框最右侧的图标来设置常用参数的默认值,包括画面比例和个性化模型开关。在官网上使用图片参考也变得简单直观,只需要点击 prompt 框最左侧的图片按钮,或直接拖入图片即可,并且官网会记录所有使用过的图片,方便调用或删除。当鼠标悬停在图片上时,会看到 3 个小图标,从左到右分别是角色参考、风格参考、整图参考,点击相应的图标即可,如需多种参考逻辑可按住 shift 键点选多个图标。创作页面最大亮点是 prompt 的复用,可以直接点击画面描述或复制描述词到 prompt 框中,也可以直接点击下方横列菜单里的按钮,将包括参考图在内的完整 prompt 替换当前的 prompt。点击图片则会进入单图调整模式,在 discord 中常用的操作指令都被集中在了右下角的按键中,并且上线了全新的 Editor 编辑器功能。 另外,MJ 官网更新了,刷图超过 1000 张的就可以用 alpha 版本了。可以不用在 discord 服务器生图了,官网操作更方便,很多参数直接可以控制。前几天还是需要 10000 张才可以,门槛降低了,过两天估计可以全量开放了。在官网上可以看各种排行榜和厉害的作品,右键也新增了很多功能,不错的作品也容易被发现,还有提示词可以直接复制。
2024-11-14
mj如何保持人物一致性
在 MJ 中保持人物一致性可以按照以下步骤进行: 1. 确定画面元素:优先出一张图,保证风格、构图样式及人物角色。 2. 确定前后图的构图风格:出第二张图时,将第二张图提示词描述后加入第一张图的构图风格(iw 参数)。 iw 取值范围为,不填写默认 iw = 1,iw 值越大越接近垫的图像,反之更接近提示词。为确保人物一致性,建议取 iw 2。 3. 确定图片角色一致性: 在得到构图相同后,利用 MJ 重绘功能,对画面进行局部重绘。在重绘提示词里输入 cref cw 来保证角色一致性。cref 所垫图还是用的是刚才一张图,因为第一张图有两个内容我们都要拿:构图、人物。 若出现黑边,将黑边部分框住,重绘输入关键词“background”就能去除黑边,保证背景一致。 需要注意的是,由于 MJ 不可控因素,相较于保证人物位置,先保证构图会容易很多。因为 MJ 在重绘时,如果要将一个角色从镜头一个位置挪到另外一个指定位置,非常难处理。整个 MJ 出图基本也是靠降噪重绘,固定位置重绘局部内容会比改变整个画面结构容易很多。这就好比美术课画画,给一张参考图,一个是把背景风格都做好了,让在固定位置添加内容,另一个是将整个页面内容全部重绘,还要保证画面的主题内容要和参考图一样,相比之下后者的随机性会大非常多(抽卡次数也会很多)。 在生成人物图片时,先确定人物形象,如“a little girl wearing a yellow floral skirt+人物动作+风格词”,在 mj 中生成直到得到一张满意的人物图像。为了确保人物一致性,取 iw 2 。然后可以使用 PS 或者 Canva 将人物和场景合成到一张图,若色调不和谐,可将合成后的图作为垫图(iw 2),mj 重新生图。
2024-11-02
我想使用MJ设计班牌 应该注意什么问题
使用 MJ 设计班牌时,需要注意以下问题: 1. 选择最新的 6.0 model。 2. 利用图生图功能时,命令为 /describe,选择 image 上传本地图片可获取四条提示词,点击下方标签可生成对应提示词的四张图。但要注意截图的对标比例未必是标准的 9:16,可手动修改比例以省去返工。 3. 自行对比反推的词和对标的相似程度并微调,describe 根据对标图反推的效果可能不太好,可根据推出的词自行修改,也可直接用给定的提示词,如“Anthropomorphic(mice),fashion runway,whole body,(wearing red northeast big flower jacket),anthropomorphic,highend design style,cool,slender figure,Milan fashion show,whole body,dynamic capture runway show,front view,facing the camera ar 9:16 style raw”。 4. 对于某些难以画出的形象,如拟人形态的龙,可能是描述不够准确,需要加强描述词,如将“一条亚洲龙站在时尚秀场上”这样连成一句话,以便 MJ 正确理解。 5. 确定主体形象时,包括画风、是否 Q 版、配色风格、构图比例、细节量设定等,可以找参考案例。 6. 通用的肖像生产咒语如“Cartoon style character,original character,character design. Mysterious painter and artist,an intellectually mature girl(人物基本形象(必要内容比如性别和身份) Gold and dark red.(配色部分(一个系列里尽量不要改改了容易画风对不上) 2d,solid and clean background,white background. The figure is in the middle of the frame,sideways.(侧身) Art Nouveau,in the style of Alphonse Mucha. no decorative background elements,no flower.Clean background. niji 5 ar 9:14 s 400 style expressive / style cute(二者任选尝试)”,注意咒语中的内容可随意换,多尝试。 7. 利用一致性时,得益于cref,默认值 100,越高越接近参考图像的风格。在回车之前,检查提示词,不要出现和 sref 风格差异过大的 prompt,也可增加一些有用的 prompt。解决“形似而神不似”的问题,即 MJ 直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有细微差距的问题。
2024-10-09
怎么让mj生成的图片色调保持一致
要让 MJ 生成的图片色调保持一致,可以参考以下方法: 1. 在关键词中限制颜色时,同一种情绪最好多生成几张不同色系的图片,这样可以减少后续训练中模型把情绪和颜色做挂钩。但如果您需要将情绪和颜色关联,也可以反其道而行之。 2. 注意数据集中正面情绪与负面情绪的比例应差不多。如果都是正面积极的,在生成一些负面情绪(如 sad、cry)的图片时,可能会出现奇怪的问题(如训练的是兔子形象,但 AI 认知的 sad 可能是人的形象,可能会出现人物特征)。 3. 为保证人物一致性,在生成人物图片时,可确定人物形象,如“a little girl wearing a yellow floral skirt+人物动作+风格词”,在 MJ 中生成直到得到满意的人物图像,并取 iw 2。 4. 为保证画面的一致性,可以使用 MJ 的 cref 参数。
2024-10-06
mj提示词
以下是关于 MJ 提示词的相关知识: 1. 常用的控制画面的提示词指令分别是 cw、sw 和 iw: cref/cw:主要作用是保证人像一致性。使用 cw 需要用 cref 指令,cw 参数范围为 0 100。强度 100(cw 100)是默认值,它会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式:cref 图片链接,cw 100。参考链接: sref/sw:主要作用是保证画面风格和参考图一致(例如:背景基调、画风等)。使用 sw 需要用 sref 指令,sw 参数范围为 0 1000。基础格式:sref 图片链接,sw 100。参考链接: iw:作用是控制画面构图一致性,保证生成图为参考图的构图样式。 2. Pika 作为 MidJourney 图片生成大师,能够根据您的故事内容创作出全面的分镜提示词,包括分镜描述、人物描述、环境描述、氛围描述、灯光描述、色彩描述、构图描述、风格描述。还会考虑您所使用的相机类型、摄影风格和镜头位置,确保生成的提示词能够完美匹配您的创作需求。 3. 在 MJ 的输入法测试中,提示词中,文本前置、后置等效果相近,并没有很大不同。过长的文本难以控制文本出现的位置,建议只要求 AI 生成部分主要文本内容,自行嵌字仍然还是当前最佳方法。加入引号“”包裹文本即能达到 MJ 生成文字的效果,不必要特殊说明“生成一段文本......”等内容。MJ 能够自行判断文本应当存在的位置,会将文本安排在符合逻辑的位置上,不必要特殊描述。后续有机会可以进一步测试【局部重绘】能否控制文本在规定位置出现。总结概括,MJ 进行文本输出任务,提示词并没有特别固定的语法结构。只需要认识清楚其文本生成的能力范围和使用场景,即可高效的应用 V6 模型,生成有趣的画面内容。
2024-09-23
sd安装
以下是关于 SD 安装的详细步骤: 1. 系统要求:系统需为 Win10 或 Win11。 2. Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD的显卡,显卡内存 4GB 以上。 打开任务管理器:同时按下 ctrl+shift+esc。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标跳转至对应安装教程页:。 4. 配置不够可选择云端部署(Mac 也推荐云端部署):。 5. 备选:SD 好难,先试试简单的无界 AI:。 补充说明: 如果在以上使用过程中发生错误,那么你可能需要部署一下使用环境,我们再次开启最傻瓜安装教学模式。 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。以上步骤,我们在安装 roop 的时候也做过,如果安装过 roop 的可以跳过。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 关于【SD】无需 Lora,一键换脸插件 Roop 的安装: 安装时间比较长,要耐心等待。安装好之后,打开 SD 文件目录下的这个文件夹。在地址栏输入“cmd”,然后回车。在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包我已经更新到了云盘里,后台回复【SD】就可以下载。安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。完成这些后,Roop 插件就可以正常使用了。这个插件主要适用于真实的人脸替换,所以对二次元之类的人物作用不大。我们选用一个真实系模型“realisticVisionV20”,关键词描述的是一个老人举着气球。得到了一张如下的照片。接下来启用 ROOP 插件,选择你想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但是图像会很模糊;数值越高人物越不像,但是图像会很清晰。这个就取决于你的需求了,我使用 0.5 测试一下。最下面还有一个放大算法,可以使用一个模型放大你的图像,基本就相当于高清修复。设置好后,点击生成。可以看到,人脸部分的像素是偏低的,有点模糊。但是没有关系,我们可以将这张图发送到“图生图”,开一个比较小的重绘幅度。然后使用 controlnet 中的 tile 模型进行重绘。换脸完成。如果想要这个插件的话,可以添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。特别提醒,此插件谨慎使用,切勿触犯法律。
2024-11-16
coze web sdk 的具体测试的案例
以下是关于 Coze Web SDK 具体测试的案例: 1. 提示词母体测试: 测试平台包括海外版 Coze 和国内版 Coze。 目的是测试提示词母体模板是否能按规定指令进行生成。 测试模型有 Claude3.5 Sonnet等。 进行了现实主义人物角色、虚幻主义人物角色等方面的测试。 测试感受是基线达到,国内外模型都能按要求生成拟人化提示词,但效果不一,Claude 生成质量最好。 2. 分步构建和测试 Agent 功能: 进入 Coze 后,点击「个人空间工作流创建工作流」打开弹窗。 根据弹窗要求自定义工作流信息,确认后完成新建。 左侧「选择节点」模块中,根据子任务需要实际用到插件、大模型、代码等。 编辑面板中的开始节点和结束节点分别对应分解子任务流程图中的原文输入和结果输出环节。 按照流程图在编辑面板中拖入对应的 LLM 大模型、插件、代码节点即可完成工作流框架搭建。
2024-11-15
有哪些好用的SD扩图
以下是一些关于 SD 扩图的好用方法和相关信息: 1. 高清修复: 原理是命令 AI 按照原来的内容重新画一幅,新生成的绘图和原来的绘图在细节上会有所不同。 适当降低重绘幅度可以更接近之前的绘图,如 0.2 0.3 能保留较多原有细节,但可能出现如手部等部分的问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 PS 合成等办法解决。 由于渲染耗时较长,建议先采用低分辨率抽卡刷图,抽到喜欢的图后用随机种子固定再进行高清修复。 2. 图生图脚本功能: 文生图画好图后发送到图生图,点击下面的脚本,选择使用 SD 放大。 重绘幅度设置 0.3,放大倍率为 2,图块重叠的像素设置为 64。 这种方式需保持重绘幅度较低,否则可能出现新人物。 3. 超清无损放大器 StableSR: 可以算作“后期处理”的上位替代品,能在尽可能保留原图的情况下更精致地还原原图。 安装方式:在扩展面板中搜索 StableSR 直接安装,或将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下,安装完成后重启 webUI 即可在脚本中找到。 4. 二维码相关的 SD 扩图: 与第二步相同的关键词和模型,按照特定参数设置,如原本图片尺寸为 1152x1152 ,需要增高高度可设置为(1152x1526)。 对于无法识别处理的情况,可采取提高 ControlNet 的权重、降低重绘幅度、将原始黑白二维码叠加并调节透明度、使劲抽卡等方法。
2024-11-15
SD软件使用
以下是关于 SD 软件使用的相关内容: 1. 软件安装: 系统要求:Win10 或 Win11。 Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存和显卡内存(显存)。8GB 运行内存可勉强运行 SD,推荐 16GB 以上运行内存;4GB 显存可运行 SD,推荐 8GB 以上显存。 安装方式:配置达标可跳转至对应安装教程页。 2. 制作二维码: 使用进行安装。如果使用的是 Colab Notebook,只需在启动时选择 ControlNet。 生成二维码:首先需要一个二维码。为增加成功机会,请使用符合以下条件的二维码。使用高容错设置或草料二维码。具体步骤为:第一步选择文字类型,输入二维码的文字;第 2 步将容错设置为 30%;第 3 步按生成;第 4 步将二维码下载为 PNG 文件。 3. 软件原理理解: 模型下载与放置:不会科学上网时,可在启动器界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】文件夹下,在左上角的模型列表中选择(看不到就点旁边的蓝色按钮刷新)。 VAE:相当于给模型增加提高饱和度的滤镜和局部细节微调,有的大模型自带 VAE,可在启动器里面下载,下载的 VAE 放在根目录的【……\\models\\VAE】文件夹。 Embedding:功能相当于提示词打包,可在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。 LORA:可以将人物或者物品接近完美地复刻进图像中,具有极大商用价值,但使用时需注意版权和法律问题。
2024-11-13
SD大模型无法加载
SD 大模型无法加载可能有以下原因及解决方法: 1. LORA 方面: LORA 可以提炼图片特征,文件通常有几十上百兆,承载信息量远大于 Embedding。下载的 LORA 放在根目录的【……\\models\\Lora】文件夹下,使用时点击红色小书,找到 LORA 选项卡加载。 使用 LORA 时要注意看作者使用的大模型,一般需配套使用,还可能需要加入特定触发词,如盲盒 LORA 需加入“full body, chibi”等提示词。 2. Hypernetworks 方面: Hypernetworks 主要针对画风训练,文件下载后放在根目录的【…\\models\\hypernetworks】,使用时点击红色小书,找到 Hypernetworks 选项卡加载。 3. 模型下载与安装方面: 常用的模型下载网站有:。 下载模型后需放置在指定目录,大模型(Ckpt)放入【models\\Stablediffusion】,VAE 模型放入【models\\Stablediffusion】或【models\\VAE】目录(有的大模型自带 VAE 则无需再加),Lora/LoHA/LoCon 模型放入【extensions\\sdwebuiadditionalnetworks\\models\\lora】或【models/Lora】目录,Embedding 模型放入【embeddings】目录。模型类型可通过检测。 不会科学上网时,可在启动器界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】,在左上角模型列表中选择(看不到就点旁边蓝色按钮刷新)。 旁边的 VAE 相当于给模型增加提高饱和度的滤镜和局部细节微调,可在启动器里下载,放在根目录的【……\\models\\VAE】。 Embedding 功能相当于提示词打包,下载 Embedding 可在 C 站通过右上角筛选 Textual Inversion 找到,放在根目录下的【embeddings】文件夹里。 由于无法确定您大模型无法加载的具体原因,您可以根据上述内容逐一排查。
2024-11-12
SD安装包
以下是关于 SD 安装包的详细步骤: 1. SD 云端部署 部署流程 安装和配置基础环境 在浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量。 安装显卡驱动:用内置的 IE 或下载 Chrome,打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动并安装。 配置环境变量:驱动安装完成后,先找到驱动所在的目录(一般是在「C:\\Program Files\\NCIDIA Corporation」),复制这个路径。找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量。找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,粘贴刚才复制的 nvidia 驱动安装地址,保存即可。 下载安装 SD 整合包 整合包也就是打包了 SD 和 Web UI 方便大家更好的使用的集合,以秋叶的 SD 整合包举例讲解。 下载 SD 整合包:秋叶 SD 整合包下载地址:https://pan.baidu.com/s/1uavAJJdYYWhpnfjwQQDviQ?pwd=a123 ,提取码:a123 。建议在服务器上装个百度网盘或者其他能够提高下载速度的工具,有百度会员则无所谓。 安装 SD 整合包:安装之后,打开安装包一级目录,双击启动器运行依赖(安装一些 SD 运行所必要的基础环境,比如 Microsoft Desktop Runtime 等),安装完成后就可以启动 SD 了。 2. 补充说明 如果在以上使用过程中发生错误,那么可能需要部署一下使用环境,再次开启最傻瓜安装教学模式。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。(如果安装过 roop 的可以跳过) 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 重启,装好了,重启电脑,即可运行。 请注意,如果想要获取插件安装包,可以添加公众号【白马与少年】,回复【SD】即可。
2024-11-11
如果给AI数据,AI可以做出小波分析并出图吗
目前的 AI 技术在给定相关数据的情况下,是有可能进行小波分析并出图的。但这取决于多个因素,如数据的质量、数量、特征,以及所使用的 AI 模型和算法的能力和适应性。一些专门为数据分析和图像处理设计的 AI 模型,经过适当的训练和配置,能够处理数据并生成小波分析的结果图像。然而,要实现准确和有意义的小波分析及出图,还需要对数据进行预处理、选择合适的模型架构,并进行精细的调参和优化。
2024-10-31
给我找国内较好的Ai设计出图网站
以下是为您推荐的国内较好的 AI 设计出图网站: 爱设计 PPT:在国内 AI 辅助制作 PPT 的产品领域表现出色,其背后有强大的团队,能敏锐把握 AI 与 PPT 结合的市场机遇,已确立市场领先地位。对于经常制作 PPT 的商务人士、教育工作者、学生等都是值得尝试的工具,能提高效率并保证高质量输出。 如果您想了解关于 AI 生成 CAD 图的相关资料,可以参考以下几个方面: 学术论文:通过 Google Scholar、IEEE Xplore、ScienceDirect 等学术数据库搜索。 专业书籍:查找相关专业书籍。 在线课程和教程:参加 Coursera、edX、Udacity 等平台上的相关课程,在 YouTube 等视频平台上查找教程和演示视频。 技术论坛和社区:加入如 Stack Overflow、Reddit 的 r/AI 和 r/CAD 等,关注相关博客和新闻网站。 开源项目和代码库:探索 GitHub 等开源平台上的相关项目,例如 OpenAI 的 GPT3、AutoGPT 等在 CAD 设计中的应用。 企业案例研究:研究 Autodesk、Siemens 等公司在 AI 在 CAD 设计中的应用案例。 以下是一些用户在工作中对出图的需求示例: |用户|联系方式|需求| |||| |kone|18616571618|AI 短片、AI 商业广告| |晓涵|17801234978|做视频| |uohigher|13902973307|个人学习| |卿卿子|18610036923|图片批处理| |lok|18529409793|设计| |hell 小明|13590623865|产品图| |iseeu|15532394695|提高工作效率,页面设计,配文出图| |大白光|17704034008|出图和视频| |三川|18681537236|出图和 AI 出视频| |李小蜗|18366606265|动漫真人电影| |Lucky|18475643966|出图,视频| |无名之辈|15813236448|自媒体 ip 打造,影音行业的创新,母婴等电商行业的赋能| |龙|13911904101|画图,工作,变现| |colour|19977743192|工作流设计| |小熠|13242135972|视频、图片处理| |顺势上马|/|自媒体和电商办公等| |叉子|15103211190|儿童绘图,小红书引流| |harry|15921430685|兴趣学习,自媒体素材,自定义节点开发| |古戈尔|18975394699|视频,动画| |二师兄|13818462550|图像流制作,装修工程和建筑工程| |fyu|15880036058|生图|
2024-10-29
相同的参数下,用SD comfyui出图可以和SD webui出图保持图片效果一模一样么?
理论上,在应用完全相同参数(如 Step、CFG、Seed、prompts)的情况下,SD ComfyUI 出图和 SD WebUI 出图应当能保持图片效果一模一样。但在实际操作中可能会存在一些差异,比如: 提示词的多个条件下,SD 生成的图像可能无法全部满足,这与提示词引导系数有关,该系数关系到出图与文字的相关程度。 不同的模型和配置也可能影响出图效果,例如 SDXL 的大模型分为 base、refiner 以及配套的 VAE 模型,用于调节图片的画面效果和色彩。 需要注意的是,相同参数下要达到完全一致的出图效果并非绝对,还会受到多种因素的综合影响。
2024-10-14
AI 出图合成技巧
以下是一些 AI 出图合成的技巧: 方法 1(SD 出图 + AI 视频软件): 在 SD 的 controlnet 中上传原图,选择深度,通过文生图生成图片,然后将生成好的图放在 AI 视频工具中进行视频生成。相关网站:dreamina:https://dreamina.jianying.com/aitool/video/generate 方法 2(MJ 出图 + AI 视频软件): 使用 Midjourney 垫图加上描述出图,再去视频工具中转成视频。可在下载项里的深度图,打开 MJ 官网(https://www.midjourney.com/)上传深度图。局部重绘有一定难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,然后合成,拼在一起再交给 MJ。各种垫图局部重绘也能无中生有。
2024-09-12
我想利用AI创作出图片视频在抖音变现我应该怎么做?
利用AI创作图片和视频在抖音变现是一个多步骤的过程,涉及到内容创作、账号运营和商业变现等方面。以下是一些基本步骤和建议: 1. 确定内容方向: 确定你想要创作的内容类型,比如教学、娱乐、生活记录、产品展示等。 2. 学习和研究: 学习AI创作的基础知识,研究抖音平台的内容规则和用户偏好。 3. 选择AI创作工具: 选择适合你需求的AI创作工具,如图像生成工具(DALLE、Stable Diffusion等)和视频编辑工具(Adobe系列、Filmora等)。 4. 内容创作: 使用AI工具创作图片和视频内容。确保内容具有创意、高质量,并且符合抖音用户的口味。 5. 内容编辑和优化: 对生成的内容进行编辑和优化,确保画面美观、剪辑流畅,并符合抖音的格式要求。 6. 添加字幕和特效: 利用AI工具或抖音内置功能为视频添加字幕和特效,提高视频吸引力。 7. 制定发布计划: 制定合理的发布计划,保持定期更新,以吸引和维持粉丝。 8. 互动与社区建设: 在抖音上与粉丝互动,回复评论,参与挑战和话题,建立社区。 9. 分析数据: 分析视频数据,了解哪些类型的内容更受欢迎,根据数据调整创作策略。 10. 变现策略: 利用抖音的变现工具,如商品橱窗、广告植入、直播带货、参与抖音的变现计划等。 11. 合作与推广: 寻找品牌合作机会,参与抖音的推广活动,扩大你的影响力。 12. 遵守规则: 遵守抖音和相关法律法规,确保内容不侵权、不违规。 13. 持续学习和改进: 持续学习最新的AI创作技巧和抖音运营策略,不断改进你的内容和运营方式。 14. 注意版权问题: 确保使用的素材、音乐等不侵犯他人的版权。 15. 建立个人品牌: 在抖音上建立个人品牌,提高自己的知名度和影响力。 通过上述步骤,你可以利用AI创作图片和视频在抖音上进行内容创作和变现。记住,内容的质量和创意是吸引观众的关键,而持续的学习和改进则是长期成功的重要因素。
2024-07-26
用别人的模型出图商用 会侵权吗
使用别人的模型出图商用是否侵权,需要根据具体情况来判断。 以腾讯混元大模型为例,其适用场景包括给自己或身边人做头像、公众号和媒体版面排版时的文字配图、制作海报、PPT 的素材以及广告配图等。但需要注意的是,腾讯混元大模型并不主张生成图片的版权,且原素材涉及到的版权风险可能存在争议。比如,如果用混元生成了某个 IP 如皮卡丘、米奇老鼠等,或者某个名人的真人脸,都可能存在侵权风险。建议在使用配图过程中尽量避免此类情况。如果最终使用了腾讯混元大模型生成的图片,应注明“由腾讯混元大模型生成”。 从全国首例 AI 生成图片著作权案例解读来看,软件设计者通过设计算法训练出智能模型,对模型设计投入了智力成果。但图片是由创作者根据个人意愿,选取提示词、修改参数等步骤得出的最终成品,著作权属于人类创作者。尽管 AI 是工具,但法院强调著作权仍然属于人类创作者,保护了人类在知识产权领域的权益。 根据《中华人民共和国著作权法》第十一条规定,著作权属于作者,创作作品的自然人是作者。由法人或者非法人组织主持,代表法人或者非法人组织意志创作,并由法人或者非法人组织承担责任的作品,法人或者非法人组织视为作者。在未显示作者身份信息的情况下使用图片可能构成侵权。
2024-07-22
现在有哪些大模型效果与性能的对齐工具
目前对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的理解程度,涵盖语法、语义、上下文和隐含意义。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:衡量对广泛主题的知识掌握及特定领域的理解深度。 4. 泛化能力:测试处理未见过任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊指令的能力。 6. 偏见和伦理:评估生成文本是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,对用户反馈的适应和持续对话能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务,提供的 API 和工具的易用性。 为进行有效比较,可采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准评估基准。 2. 自定义任务:根据特定需求设计任务评估特定领域表现。 3. 人类评估:结合人类评估者的主观评价,尤其在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中比较不同模型表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等量化比较。 对于大模型的安全对齐,通过对齐(指令调优)能使语言模型更好理解人类意图并增加安全保障,避免输出有害内容。对齐任务可拆解为监督微调及获取 reward model 与进行强化学习调整输出分布两部分。LLAMA2 专门使用安全有监督微调确保安全。强化学习能根据人类反馈调整分布,使模型面对训练分布外数据时能拒绝不当回答。但 Alignment 并非能防护所有安全问题,存在越狱情况使模型对齐失效。 Qwen 2 开源后模型性能超越目前所有开源模型和国内闭源模型。玉宝搞过的 LLM 在线评估中可看到国内闭源大模型的 HUMANEVAL 测评得分,可与 Qwen 2 对比,参考网址:https://www.llmrank.cn/ 。2023 年 8 月起,通义千问推出 Qwen 系列,Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。Qwen 2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,也已上线中国大语言模型评测竞技场 Compass Arena,测评地址:https://opencompass.org.cn/arena 。Compass Arena 集齐了国内主流的 20 多款大模型,用户可选择两两“对战”。
2024-11-14
我希望用即梦来生成一张图片,我想要实现的效果是:空中有悬浮的大理石加金子材质的悬浮台。请协助我生成提示词
以下是为您生成的使用即梦生成空中悬浮的大理石加金子材质悬浮台图片的提示词相关步骤: 1. 工具选择:即梦、可灵、Runway、Suno、剪映。 即梦:是最简单易用的图片重绘工具,云端访问且无需付费。 可灵:具有极强的运动笔刷控制力。 Runway:能很好地实现泼墨和画面上色。 Suno:可尝试新的使用视频制作歌曲的效果。 2. 即梦使用步骤: 使用即梦的图片生成功能,上传同一张图片 2 次,一次选择边缘轮廓,一次选择人物姿势(或者单独使用边缘轮廓也可以)。 在此场景下,不要添加景深,否则会出现“文物感”效果,而非所需的写实风。 可稍微提升精细度,由于原图是竖版,选择竖版切割,所得图片更适合用作首尾帧。 3. Runway 提示词:Static shot:colorful paint splashed onto canvas,transforming into a vibrant,lifelike display 4. 可灵提示词:一个帅气地老头从鹿背上跳下来,释放法术,漂浮在空中,非常自信,非常帅气。鹿向左走出了画面(鹿没有走出画面,但漂浮效果不错,决定不再抽卡,保留这个版本)。 希望这些信息对您有所帮助。
2024-11-10
用Coze创建AI,能够通过文字生成图片或者视频或者动画或者渲染效果
以下是使用 Coze 创建 AI 的相关信息: 1. 注册 Coze 账号: 访问 Coze 官网,快速注册,开启智能之旅。 Coze 中文名扣子,字节跳动出品。 中文版:https://www.coze.cn/(支持大模型:kimi、云雀)——本次教程使用中文版 Coze。 英文版:https://coze.com/(支持大模型:chatgpt4)。 产品定位:新一代 AI 原生应用开发服务平台,Nextgeneration AI chatbot building platform。 2. 创建机器人: 登录 Coze,可使用抖音或手机号登陆,登陆后选择“创建 Bot”,然后起一个响亮的名字。 工作空间选“个人空间”即可。 小技巧:“图标”AI 可以自动生成,先在“Bot 名称”那里用文字描述想要的图标,图标生成满意后,再把“Bot 名称”改为简洁版名称。 3. 制定任务的关键方法: 在开始设计和开发任何 AI Agent 之前,最关键的第一步是明确定义期望 AI 最终输出的结果。这包括详细描述期望获得的输出内容,如输出是文本、图像、音频还是其他形式的数据,输出的具体格式和结构是什么,确定输出内容的质量标准。 预估任务的可行性。 确定任务的执行形式。以 LearnAndRecord 的一篇文章为例,拆解其结构,基于此进行微调优化。值得注意的是,Coze 支持 Markdown 格式输出 AI 生成的内容,Markdown 作为轻量级文本标记语言,能够有效展示文本、图片、URL 链接和表格等多种内容形式。参照精读结构,评估任务的可行性,生成结果包括文字、图片(思维导图)、音频(原文音频)三类输出格式,前两者可直接用 Markdown 输出/嵌入,音频则需通过 URL 链接跳转外部网页收听。最后结合使用习惯,期望在输入一篇英文原文时,AI Agent 能够按模板要求,直接输出精读结果。
2024-11-09
如何用两张照片,合成一张绘画效果的图
以下是将两张照片合成为一张绘画效果的图的步骤: 1. 利用 Dalle3 绘图,根据以下提示词分别把高中和大学时期的内容绘制成两幅四格漫画: 高中:中午,急急忙忙跑到食堂,排长队买饭。 大学:中午,懒洋洋在宿舍点外卖,直接送到宿舍楼下。 2. 利用 Python 进行图片处理: 统一设置:使用上传的字体,字体颜色黑色。 首先: 在每张图片的上面创建一个空白的白色背景区域(从原图片进行延长,而不是遮盖原图),用来放置文字(高中的图片写上“高中”,大学的图片写上“大学”)。 文字的字体大小设置成 65px,居中显示。 然后: 在图片下方创建一个空白的白色背景区域(从原图片进行延长,而不是遮盖原图),用来放置文字(高中的图片写上),如果句子过长,要注意换行显示。 文字的字体大小设置成 45px,居中显示。 最后把两张图片拼成一张图,高中的图片在左,大学的图片在右。两张图中间放置 50px 的空白区域。 另外,还有一些相关的知识供您参考: Double Exposure 是一种视觉艺术风格,将两个或多个照片合成到一起,创建出具有艺术效果的图像,灵感来自于传统的双重曝光摄影技术。最佳提示词:Double Exposure。 在 Stable Diffusion 中,可以使用【X/Y/Z plot】脚本来做参数对比,例如将 X 轴设置为提示词相关性,取值范围是 1 30。通过对比找到合适的参数,如提示词相关性在 6 11 中间为最佳。还可以使用绘图功能进行局部修改,如增加红色眼镜、去掉衣服上的图案、更换头部或帽子等部分。
2024-11-04
怎么写文档会让RAG 效果更好
要让 RAG 效果更好地写文档,您可以参考以下要点: 1. 文档切割: 合理的文档切割能让系统返回更完整、连贯的结果。例如,对于“猫咪的饮食习惯是什么?”的查询,将相关内容切割为“猫咪的饮食习惯取决于它们的年龄、健康状况和品种。”和“幼猫需要更多的蛋白质,而成年猫则需要均衡的营养。”这样的文档块。 目前免费平台一般提供智能切割和手动切割两种方式。但在当下技术水平下,智能切割效果一般,对于以问答为主的客服场景,将一个问答对切成一个文档片,检索效果会很好。 2. 整理知识库文档阶段: 确定知识库包含的文档类型,如政策原文文档、业务积累的 QA、操作指引、产品说明等,并进行预处理。 知识库本身质量对最终效果至关重要,是大模型生成回答的原始语料。 优化方向包括: 文档格式:PDF 文档格式信息相对简洁,干扰少,但也有说.docx 效果更优的,需根据场景测试。 文档命名:尽量控制在 10 字左右,涵义简洁明了,避免无意义的数字、符号或缩写。 文档语言:尽量统一为同一种,避免中英文混切导致乱码和无用数据。 文档内容:设置清晰的一二级标题,对特殊元素进行处理。 构建问答对:能达到更好效果,但耗费人力和运营成本,需综合考虑。 3. 通用语言模型微调可完成常见任务,更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源。Meta AI 引入的 RAG 方法把信息检索组件和文本生成模型结合,可接受输入并检索相关文档,给出来源,适应事实变化,不用重新训练就能获取最新信息并生成可靠输出。Lewis 等人(2021)提出通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。
2024-10-21
怎么评估提示词的效果?
评估提示词的效果可以从以下几个方面进行: 1. 模型的准确率:观察模型生成的回答与预期结果的匹配程度。 2. 流畅度:检查生成的文本在语言表达上是否通顺、自然。 3. 相关性:判断生成的内容与提示词所表达的意图和需求的关联程度。 提示词工程师在评估提示词效果时,通常会采取以下步骤和方法: 1. 设计提示:根据用户需求和模型能力,精心考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式,不断改进提示。 3. 实际测试:包括对基础提示词模板的测试,确保其能兼容国内外各种模型,并生成拟人化的提示词,然后将其应用于不同模型中评估实际应用效果和适应性。 此外,提示工程有几项核心原则: 1. 编写清晰的指令。 2. 将复杂任务分解为简单任务。 3. 给模型一定的时间空间思考。 4. 系统地测试性能变化。 要提高提示技巧,应多学习和实践。同时,可以参考大模型厂商的提示工程指南,以及 LangGPT 结构化提示词知识库中的相关资料,如:
2024-10-15