直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

chilloutmix模型

回答

以下是关于 chilloutmix 模型的相关信息:

  • 在腊八节相关的生成中,模型为 chilloutmix_NiPrunedFp32Fix,生成尺寸与草稿图保持一致,有正、负面关键词及 ControlNet 设置等具体参数。
  • 在猫猫相关的生成中,虽然作者建议使用 chilloutmix_NiPrunedFp32Fix 模型,但也可以尝试其他模型。
  • 在 AIGC Weekly #09 中,提到从 civitai 下载 ChilloutMix 模型并放到整合包 models\Stable-diffusion 目录里启动 web UI 切换模型。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:腊八节

模型:chilloutmix_NiPrunedFp32Fix生成的尺寸和你的草稿图保持一致(cn垫图512x768,高清修复2倍,重绘幅度0.35)关键词和ControlNet参数每张不一样都进行了调整。以第一张为例正关键词:(masterpiece,highres,high quality,high resolution),(laba porridge:1.1),(red bean shrub:1.2),bowl,cured meat,bright light,take a high-angle/crane shot,chopsticks,red bean shrub,mung bean,black soya bean,red date,longan,lotus seed,chinese wolfberry,wooden table,put it on the table,shoot from top to bottom,photographic work,real photos,负面关键词NSFW,Negative,(worst quality:2),(low quality:2),(normal quality:2),watermark,ng_deepnegative_v1_75t,character,people,中文关键词:(杰作,高分辨率,高品质,高分辨率),腊八粥,红豆,碗,腊肉,明亮的光线,高角度拍摄,大米,小米,筷子,,绿豆,黑豆,木桌,放在桌子上,从上到下拍摄,摄影作品,ControlNet设置:预处理器:无模型:control_v1p_sd15_qrcode_monster_v2权重:1.1控制模型:均衡预处理器:depth_leres模型:control_v11f1p_sd15_depth权重0.3控制模型:更偏向提示词

这也太阔耐了吧!猫猫祟祟的~(实战篇)

关键词masterpiece,best quality,Photography,real photo,DOF,cute anthropomorphic cat,anthropomorphic,wearing a yellow translucent raincoat and rain boots,holding an umbrella,happy expression,masterpiece,full body,crazy details,Natural light,Bokehlicious,Fuitim X-T4Negative prompt:(worst quality,low quality:1.4),(malformed hands:1.4),(poorly drawn hands:1.4),(mutated fingers:1.4),(extra limbs:1.35),(poorly drawn face:1.4),missing legs,(extra legs:1.4),missing arms,extra arm,ugly,huge eyes,fat,worst face,(close shot:1.1),text,watermark,blurry eyes,设置Steps:38,Sampler:Euler a,CFG scale:7,Seed:1820151509,Size:512x512,Model hash:ed989d673d,Model:dreamshaper_7,Denoising strength:0.54,Clip skip:2,ENSD:31337,Hires upscale:2,Hires upscaler:Latent,Version:v1.5.1我们会得到一个修长动人的——猫。但当我们加上Cute Cat LoRA(下为0.6权重)后,小猫居然chibi起来了。LoRA不仅加入了很多可爱样子的猫,同时也把比例和画面调整。1.3.兔兔LoRA还没完,还有最后一个杀招!兔兔LoRA!太阔爱了,真的太阔耐了啊!!最主要的是,它可以让所有的猫猫狗狗都兔兔化,尤其是那个比例。三寸丁的身材。太阔爱了啊!!呜!~仍然是上面的关键词和参数,模型仍然是dreamshaper_7,什么都没调整,虽然这几个LoRA作者都建议使用chilloutmix_NiPrunedFp32Fix,这个随意。可以都试试的。

AIGC Weekly #09

去秋叶的视频下载整合包[https://www.bilibili.com/video/BV17d4y1C73R/?spm_id_from=333.788.video.desc.click&vd_source=e99f85042059f2864f5cca20d71575f0](https://www.bilibili.com/video/BV17d4y1C73R/?spm_id_from=333.788.video.desc.click&vd_source=e99f85042059f2864f5cca20d71575f0),然后去另一个视频下载启动器,[https://www.bilibili.com/video/BV1ne4y1V7QU/?spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=e99f85042059f2864f5cca20d71575f0](https://www.bilibili.com/video/BV1ne4y1V7QU/?spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=e99f85042059f2864f5cca20d71575f0)把启动器解压到整合包根目录里启动。去civitai下载ChilloutMix[https://civitai.com/models/6424/chilloutmix](https://civitai.com/models/6424/chilloutmix)模型放到整合包models\Stable-diffusion目录里启动web UI切换模型。在web UI下载LoRA插件【Kohya-ss Additional Networks】并且启动。

其他人在问
SD好的模型分享
以下是为您分享的关于 SD 模型的相关内容: 对于 SDXL 的 ControlNet 模型中的 Canny 硬边缘模型,有不同型号,如 4080ti 笔记本测试中,12G 显存下,sdxl base+refiner 模型,使用 diffusers 的 2.5Gfull 模型绘制 10241024 尺寸图片需 2 分 57 秒,320Mb 的 small 模型用时 34s,质量差距不大但时间优势明显。其他作者如 kohya 的用时 33 秒,更接近真实质感。sai 的 128lora 和 256lora 分别用时 39 秒和 1 分 08 秒,偏绘画感觉。t2i 的用时 34s,偏插画。关闭 refiner 能节省一半左右时间,平均 17 秒左右。 在 Depth 深度模型测试中,图形尺寸 6641024,diffusers 的 full 模型用时 2 分 48 秒,small 模型用时 23s,kohya 模型用时 42 秒,sai 模型用时 1 分 12 秒,sargezt 模型用时 1 分 52 秒。 用 Stable Diffusion 时,要先确定照片风格,如生成真人 AI 小姐姐可选用 chilloutmix 的大模型。部分常用大模型可在分享的链接中根据文件夹名称找到。文章第三部分会详细介绍模型下载位置和存放位置。 对于 ControlNet 中线条约束类的预处理器和模型,作者已整理好,如需获取可添加公众号【白马与少年】回复【SD】。同时作者还附上一张图帮助理解 ControlNet 模型的命名规则。
2024-11-17
sd模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数生成符合文本描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩的图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示将输入图片重绘以更符合文本描述。比如在之前生成的沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本信息编码,生成 Text Embeddings 特征矩阵,用于控制图像生成。 CLIP 模型包含 Text Encoder 和 Image Encoder 两个模型,在 Stable Diffusion 中主要使用 Text Encoder 模型。它将输入的文本 Prompt 编码转换成 Text Embeddings(文本的语义信息),通过 UNet 网络中的 CrossAttention 模块嵌入 Stable Diffusion 中作为 Condition,对生成图像的内容进行控制与引导。目前 SD 模型使用的是中的 Text Encoder 模型。 CLIP ViTL/14 中的 Text Encoder 是只包含 Transformer 结构的模型,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小是 123M,输出的 Text Embeddings 维度为 77x768。 以下是相关资源获取方式: SD 模型权重百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得包含多种模型权重的资源链接。 SD 保姆级训练资源百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2024-11-17
我是一名高中历史老师,请问用什么大模型能帮我做教学设计
以下为您推荐一些利用大模型辅助高中历史教学设计的案例: 有一位历史老师使用 GPT 给学生讲课,通过 GPT 生成一个“沉浸式”历史片段游戏,让学生扮演一个角色“设身处地”地做决策,学生的作业是找出 GPT 的错误。例如明朝灭亡、南京、1645 年 5 月的相关案例,您可以参考:https://chat.openai.com/share/86815f4e674c4410893c4ae3f1b7412e/continue 。 对于历史专业的学生,当他们遇到像 ChatGPT 这样的语言模型时,已经训练有素能够识别一些常见的陷阱,如事实不准确等,并通过事实核查、分析体裁和受众、在相关来源中搜索等技能来解决这些问题。 语言模型对于历史学家和历史专业的学生是有益的,但对于历史老师和其他教育工作者在短期内可能会带来一些问题,需要重新思考许多作业的布置方式。 您可以尝试借鉴这些案例,根据您的教学需求和学生特点,对大模型的应用进行调整和优化。
2024-11-17
大模型可以修复老旧的分辨率低的视频吗
大模型在修复老旧低分辨率视频方面是可行的,但具体效果因模型和方法而异。 例如,使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型、StableSR 模块和 VQVAE 等,通过不同的放大方法进行测试。如“Ultimate SD upscale”脚本放大,重绘幅度不同效果有别,重绘幅度大可能导致人物失真。“后期处理”的放大方法能使眼神更锐利,但对模糊的头发改善有限。而 StableSR 的放大则需要进行相应的模型和参数调整。 另外,像 Sora 这样的大型视觉模型,能够在原始尺寸上训练、理解和生成视频及图像。它可以处理不同格式和分辨率的视觉数据,保持原始宽高比,改善生成视频的构图和框架。其基础模型用于低分辨率视频生成,通过级联扩散模型细化提高分辨率,采用 3D UNet 架构,结合多种技术和方法,能生成高保真度且具有可控性的视频。
2024-11-17
如何可以使用到chatgpto1大模型
目前 ChatGPT 没有 ChatGPT1 这个大模型。ChatGPT 有多个版本,如 ChatGPT3、ChatGPT3.5、ChatGPT4 等。您可以通过以下方式使用 ChatGPT 相关模型: 1. 访问 OpenAI 的官方网站,按照其指引进行注册和使用。 2. 部分应用和平台可能集成了 ChatGPT 的接口,您可以在这些应用中体验其功能。 需要注意的是,使用 ChatGPT 时应遵循相关的使用规则和法律法规。
2024-11-16
什么工具/模型/API 可以根据宠物照片生成数字宠物 可以有简单的活动。
以下是一个可以根据宠物照片生成数字宠物并具有简单活动的工具/模型/API: 出门问问 Mobvoi 的照片数字人工作流及语音合成(TTS)API。 出门问问是一家以生成式 AI 和语音交互为核心的人工智能公司,为全球多个国家提供面向创作者的 AIGC 工具、AI 政企服务,以及 AI 智能硬件。致力于打造国际领先的通用大模型,通过 AI 技术、产品及商业化三位一体发展,致力成为全球 AI CoPilot 的引领者。 在 ComfyUI 全球领导力峰会上,特意搭建了数字人 workflow(照片数字人驱动),仅需上传一张照片,输入一段文字或者上传一段音频,就可以生成短视频让“照片开口说话”。本次活动特意提供了免费 api 额度及操作指南给大家进行体验。以下是一些不同风格的照片驱动效果展示:
2024-11-16