Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Stable Diffusion(SD)收费吗

Answer

Stable Diffusion 是开源免费的。其优势在于开源免费、可以本地化部署、创作自由度很高,但需要较好的电脑配置,尤其是显卡。

相比较于 DALL-E 等大模型,Stable Diffusion 让用户使用消费级的显卡便能够迅速实现文生图。Stable Diffusion 完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。

目前有关于 Stable Diffusion 的课程,例如《Stable Diffusion 零基础入门宝典》,共计 77 个课时,定价 298 元,上架 CCtalk。因制作字幕课程在逐步解锁中,目前对前 100 名报名的同学有优惠价 198 元。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】软件原理傻瓜级理解

[title]【SD】软件原理傻瓜级理解作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-04-27 23:00原文网址:https://mp.weixin.qq.com/s/C-F6ARIMHotl6siAfQ9wig目前市面上主流的AI绘图软件有两个:Stable Diffusion和Midjourney。Stable Diffusion的优势在于开源免费、可以本地化部署、创作自由度很高,缺点是需要比较好的电脑配置,尤其是显卡;Midjourney的优势是操作简单方便,创作内容相当丰富,但是需要科学上网并且付费,目前的使用费大概在每月200多元左右。如果可以融入工作流,这个月费也不算高,毕竟它带来的效率是惊人的,当然前期想要了解玩一玩的,可以试试Stable Diffusion,关于具体的安装方法可以去看看B站的【秋葉aaaki】这个Up主的视频。很多还没有接触过AI绘画的朋友会觉得这个东西很神秘,哪怕装好了软件也会看着一堆英文和参数而一头雾水。今天我就用最傻瓜的方式来讲述一下Stable Diffusion的工作原理和基本功能。

软件:SD基本介绍

相比较于DALL-E等大模型,Stable Diffusion让用户使用消费级的显卡便能够迅速实现文生图。Stable Diffusion完全免费开源,所有代码均在[GitHub](https://github.com/)上公开,大家可以拷贝使用。[heading3]创始人[content]Stable Diffusion模型第一个版本训练耗资60万美元,而提供资金支持正是Stability AI。该公司成立于2020年,最初资金都来自创始人兼CEO Emad Mostaque。StabilityAI公司创始人Emad Mostaque

🔥【课程】爆肝制作!Stable Diffusion零基础入门宝典

[title]🔥【课程】爆肝制作!Stable Diffusion零基础入门宝典[heading1]#前言这套课程的名字叫《Stable Diffusion零基础入门宝典》,之所以叫它宝典,是因为我希望它能像一本字典一样,足够细致、足够全面、循序渐进。我不太喜欢时间很长的课程,因为看起来很累,而且某个地方忘记怎么操作之后想要复习查找也很难。所以我的这套课程每节课就是一个知识点,平均一节课五到十分钟左右,方便碎片化学习,并且能对遗忘的知识点快速查阅回顾。#关于内容主课程里面我分了五大篇章:引导篇、文生图篇、图生图篇、ControlNet篇和插件篇,共77个课时。目前已经全部录制完毕,在后期制作中,会逐步解锁。具体的课程内容大纲,大家可以看最下面的详情介绍。这套课程里包含了我公众号中写过的一些内容,也有一些我没有提到的功能,对于有些知识点来说,看视频的具体操作过程还是比看文字图片更直观一些。而且课程中对每个参数都有很细致的分析和演示,理解SD的整个使用逻辑,对于后期再去进阶ComfyUI还是很重要的。#关于更新虽然目前已经有了五大篇章,但这并不是这套课的终点。对于未来,我希望的是这套课能保持一个新鲜感,不会随着时间的推移而过时。所以在主课程完成之后,我还会做一些后续新内容的更新,比如新版本的SDXL、LoRA的炼制,或者是ComfyUI的使用等等。随着后续内容的更新,价格可能也会相应上调,但是现在购买的话,就可以永久收看后面所有的更新内容。#关于价格因为这套课程本身也是面向新人,所以我不想把门槛设得太高。目前共计77个课时,我定价为298元,上架CCtalk。由于需要制作字幕的原因,课程还在逐步解锁中,所以现在是预售价,对前100名报名的同学优惠价为198元,性价比是相当高了。

Others are asking
stablediffusion学习
以下是关于系统学习 Stable Diffusion(SD)的相关内容: 学习 SD 的提示词: 学习 Stable Diffusion 的提示词是一个系统性的过程,需要理论知识和实践经验相结合。具体步骤如下: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,了解提示词相关指南,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 学习 Stable Diffusion Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境:安装 Git 用于克隆源代码,安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项,安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码:打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git,将源代码克隆到本地目录。 3. 运行安装脚本:进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境,等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面:复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作:了解 Web UI 的各种设置选项,如模型、采样器、采样步数等,尝试生成图像,观察不同参数对结果的影响,学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能:了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等,学习如何导入自定义模型、VAE、embedding 等文件,掌握图像管理、任务管理等技巧,提高工作效率。 通过这些步骤,相信您可以快速上手 Stable Diffusion Web UI,开始探索 AI 绘画的乐趣。后续还可以深入学习 Stable Diffusion 的原理,以及在不同场景中的应用。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-16
有什么AI模型可以制作瞬息宇宙?比如Stable Diffusion,还有别的吗?
以下是一些可以用于制作类似效果的 AI 模型: 1. Adobe Firefly:内置在各种 Adobe 产品中,不过在质量方面稍逊于 DALLE 和 Midjourney,但它只使用有权使用的图像进行训练。 2. Stable Diffusion:开源模型,可以在任何高端计算机运行。开始时需要学会正确制作提示,一旦掌握能产生很好的结果,尤其适合将 AI 与其他源的图像结合。 3. DALLE:来自 OpenAI,已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠但效果比 Midjourney 稍差。 4. Midjourney:2023 年中期最好的系统,学习曲线最低,只需键入特定指令就能得到很好的结果,需要 Discord。 此外,在游戏制作领域,已经出现了用于游戏中几乎所有资产的生成式人工智能模型,从 3D 模型到角色动画,再到对话和音乐。但文中未提及具体的模型名称。
2025-01-10
stable diffusion和国内的这些AI绘画的模型有什么区别
Stable Diffusion 和国内的 AI 绘画模型主要有以下区别: 1. 数据集和学习方式: 在线的国内模型可以访问庞大且不断更新扩展的数据集,还能实时从用户的弱监督学习中获得反馈,从而不断调整和优化绘画策略。而 Stable Diffusion 通常受限于本地设备的计算能力,其数据集和学习反馈相对有限。 2. 计算能力: 在线的国内模型能利用云计算资源进行大规模并行计算,加速模型的训练和推理过程。Stable Diffusion 受本地设备计算能力限制,性能可能不如在线模型。 3. 模型更新: 在线的国内模型可以随时获得最新的版本和功能更新,更好地适应不断变化的绘画风格和技巧。Stable Diffusion 的模型更新相对较慢。 4. 协同学习: 在线的国内模型可以从全球范围内的用户中学习,更好地理解各种绘画风格和技巧。Stable Diffusion 则只能依赖于有限的本地模型,对绘画可能性的了解可能不够全面。 例如,Niji·journey 5 在二次元角色设计领域就展现出比 Stable Diffusion 更强大的性能和实用性。同时,国内还有 DeepSeek、阿里巴巴的 Qwen2 系列、清华大学的 OpenBMB 项目等在不同方面表现出色的模型。
2025-01-08
Stable Diffusion 学习教程
以下是关于 Stable Diffusion 学习的教程: 学习提示词: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 核心基础知识: 1. Stable Diffusion 系列资源。 2. 零基础深入浅出理解 Stable Diffusion 核心基础原理,包括通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍。 3. Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析。 4. 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、生成示例。 5. Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建。 6. 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括训练资源分享、模型训练初识、配置训练环境与训练文件。 其他资源: 1. 了解 Stable diffusion 是什么: 。 2. 入门教程: 。 3. 模型网站:C 站 。 4. 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 。
2025-01-06
Stable Diffusion、comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,您可以将其想象成集成了 stable diffusion 功能的 substance designer。它具有以下特点: 优势: 对显存要求相对较低,启动和出图速度快。 生成自由度更高。 可以和 webui 共享环境和模型。 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 丰富(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 其生图原理如下: 基础模型:ComfyUI 使用预训练的扩散模型作为核心,通常是 Stable Diffusion 模型,包括 SD1.5、SD2.0、SDXL、SD3、FLUX 等。 文本编码:当用户输入文本提示时,ComfyUI 首先使用 CLIP 文本编码器将文本转换为向量表示,以捕捉文本的语义信息。 Pixel Space 和 Latent Space: Pixel Space(像素空间):图的左边表示输入图像的像素空间,在 ComfyUI 中,对应于“图像输入”模块或直接从文本提示生成的随机噪声图像,生成过程结束时会将处理后的潜在表示转换回像素空间生成最终图像。 Latent Space(潜在空间):ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点执行采样过程,通过节点调整对潜在空间的操作,如噪声添加、去噪步数等。 扩散过程(Diffusion Process): 噪声的生成和逐步还原:扩散过程表示从噪声生成图像的过程,在 ComfyUI 中通常通过调度器控制,如 Normal、Karras 等,可通过“采样器”节点选择不同调度器控制处理噪声和逐步去噪回归到最终图像。 时间步数:在生成图像时,扩散模型会进行多个去噪步,通过控制步数影响图像生成的精细度和质量。 官方链接:https://github.com/comfyanonymous/ComfyUI (内容由 AI 大模型生成,请仔细甄别)
2025-01-06
社区有关于stable diffusion 的教程吗
以下是为您找到的关于 Stable Diffusion 的教程: 知乎教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识,目录包括: Stable Diffusion 系列资源 零基础深入浅出理解 Stable Diffusion 核心基础原理,包含通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍 Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、Stable Diffusion 生成示例 Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括 Stable Diffusion 训练资源分享、模型训练初识、配置训练环境与训练文件 其他教程: 了解 Stable diffusion 是什么: 基本介绍:https://waytoagi.feishu.cn/wiki/CeOvwZPwCijV79kt9jccfkRan5e 稳定扩散(Stable Diffusion)是如何运作的:https://waytoagi.feishu.cn/wiki/TNIRw7qsViYNVgkPaazcuaVfndc 入门教程: 文字教程: 模型网站: C 站SD 模型网站:https://civitai.com/ Liblibai模型+在线 SD:https://www.liblib.ai/ huggingface:https://huggingface.co/models?pipeline_tag=texttoimage&sort=trending 吐司站:https://tusiart.com/ 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ
2025-01-04
SD模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将文本输入到 SD 模型,经过一定迭代次数生成符合描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示重绘输入图片使其更符合描述,如在沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本编码生成 Text Embeddings 特征矩阵,用于控制图像生成。 目前 SD 模型使用的是中的 Text Encoder 模型,其只包含 Transformer 结构,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小为 123M,输出 Text Embeddings 的维度为 77x768。 以下是相关资源获取方式: SD 模型权重:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 模型”,可获得包含多种模型权重的资源链接。 SD 保姆级训练资源:关注 Rocky 的公众号 WeThinkIn,后台回复“SDTrain”,可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE、UNet 和 CLIP 三大模型的可视化网络结构图:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 网络结构”,即可获得网络结构图资源链接。
2025-01-22
SD如何操作
以下是关于 SD 操作的相关内容: Stable Diffusion 中,Checkpoint 是最重要的模型,也是主模型,几乎所有操作都依托于它。主模型基于 Stable Diffusion 模型训练而来,有时被称为 Stable Diffusion 模型。主模型后缀一般为.ckpt 或者.safetensors,体积较大,一般在 2G 7G 之间。要管理模型,需进入 WebUl 目录下的 models/Stable diffusion 目录。 画出商用级别的高清大图操作简单,调整好放大倍率即可直接放大。其原理和其他图片放大原理相同,并非重绘,只是变清晰,缺失细节不会补全。 制作中文文字的思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果。 可输出 C4D 模型,自由贴图材质效果。 若希望有景深效果,可打开 depth。 打开高清修复,分辨率 1024 以上,步数 29 60。
2025-01-09
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
SD怎么学习简单
学习 Stable Diffusion(SD)可以从以下方面入手: 学习 SD 提示词: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 学习 SD 的 Web UI: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录。 运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。 等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开。 即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。 尝试生成图像,观察不同参数对结果的影响。 学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。 学习如何导入自定义模型、VAE、embedding 等文件。 掌握图像管理、任务管理等技巧,提高工作效率。 总之,学习 SD 需要多方面的知识和经验积累。初学者可从官方资料入手,掌握基本概念;中级阶段需大量实践,培养敏锐度;高级阶段则要追求创新性、挖掘新维度。持续的学习、实践和总结反馈,是成为高手的必由之路。
2025-01-04
怎么看sd的插件不兼容
SD 插件不兼容可能有多种情况和解决方法: 对于提示词服从度增强插件,当生成图与提示词不太相符时,可以通过多刷图来找到符合需求的绘图。若条件太多始终达不到效果,可提高 cfg 值并启用修复插件。但开启插件并提高 CFG 值后,画面可能会发黄,颜色偏差可利用 PS 做后续调整。安装方式可以在扩展列表中搜索插件名字,或放在特定路径文件夹下,安装完成后重启 webUI 即可启用。 对于无需 Lora 的一键换脸插件 Roop,安装时间较长,需耐心等待。安装过程包括在特定文件夹地址栏输入“cmd”回车,在打开的 dos 界面粘贴代码安装 insightface。若出现错误,可下载最新秋叶 4.2 整合包。安装完成后重新打开启动器,后台会继续下载模型,需全程科学上网。使用时要注意参数设置,人脸像素可能偏低,可发送到“图生图”并使用 controlnet 中的 tile 模型重绘。此插件谨慎使用,切勿触犯法律。获取插件可添加公众号【白马与少年】回复【SD】。
2025-01-02
怎么学习Midjourney和stable defussion
以下是关于学习 Midjourney 和 Stable Diffusion 的一些建议: Midjourney: 优势:操作简单方便,创作内容丰富,但需要科学上网并且付费,月费约 200 多元。若只是前期了解,可先尝试。 学习途径:只需键入“thingyouwanttoseev 5.2”(注意末尾的v 5.2 很重要,它使用最新的模型),就能得到较好的结果。Midjourney 需要 Discord,可参考。 Stable Diffusion: 优势:开源免费,可以本地化部署,创作自由度高,但需要较好的电脑配置,尤其是显卡。 学习途径: 关于具体的安装方法可以去看看 B 站的【秋葉 aaaki】这个 Up 主的视频。 可以参考,了解其工作原理和基本功能。 如果走 Stable Diffusion 这条路,这里有一个很好的指南(请务必阅读第 1 部分和第 2 部分) 此外,在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如可以用 Midjourney 生成线稿,PS 稍微做一些修正,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。
2025-01-06
Gamma收费吗
Gamma 是免费可用的,其模型权重开源且允许商用。免费版本也能生成质量较高的 PPT,随着不断优化改进,能满足大多数用户需求,在性能和用户体验方面表现出色。
2025-01-18
Microsoft 365 Copilot是收费软件吗
Microsoft 365 Copilot 需订阅 Microsoft 365 才能使用,微软将于 12 月 1 日在中国大陆免费提供 Copilot 功能给企业和教育机构。Copilot AI 模型支持联网获取数据。
2025-01-03
pollo.ai收费吗
Poe AI 平台注册账号后可免费使用,部分功能需要付费订阅。 另外,XiaoHu.AI 日报中提到的一些服务存在收费情况,如实时调整视频中人物视线方向,每分钟处理收费 0.10 美元。
2024-12-31
目前的AI插件产业实践有哪些,需要收费的又有哪些
目前的 AI 插件产业实践中,以开发 AI Share Card 插件为例: 技术方案:将模板生成功能设计为固定的代码组件,让大模型专注于内容总结的功能。若用户需要其他模板,可通过增加更多模板选项或自定义模板代码功能实现。 对 AI 大模型的要求:处理纯文本总结任务,仅需 13B 或更小参数的模型,加上精调的提示词就能产生很好结果。 AI API 服务的选型要求: 较长的上下文窗口,因为内容总结类任务需要较大的上下文长度。 响应速度要快、并发支持要高,以在多人使用插件时保持良好性能表现。 免费或尽量低价,以减少模型 token 费用。例如选用的 GLM4flash(截至 202412,长达 128k 的上下文窗口,完全免费的调用价格,200 RPM 高并发支持)。 需要收费的 AI 插件因具体应用和服务提供商而异,常见的收费方式包括按使用量计费、订阅制等。但像上述提到的 GLM4flash 在特定时间内是免费的。
2024-12-28
对企业来说直接用开源大模型和用国内大厂收费的大模型有哪些区别
对于企业来说,直接使用开源大模型和使用国内大厂收费的大模型主要有以下区别: 数据方面: 开源大模型的数据获取相对容易,但数据质量可能参差不齐。例如,OpenAI 训练大模型所用的中文数据虽源自中国互联网平台,但经过了深度处理,而国内中文互联网数据质量普遍被认为相对较低。 国内大厂收费的大模型可能在数据处理和质量上更具优势,但获取高质量数据对于企业尤其是初创企业来说成本较高且存在风险。 商业化落地方面: 客户在商业化落地时更关注实用性而非原创性,有时因成本低会倾向选择开源大模型的非原创技术。 但使用开源大模型可能存在拼装和套壳后强调原创,从而影响迭代能力,导致内耗、刷榜和作假等问题。 其他方面: 金沙江创投主管合伙人朱啸虎指出,使用大模型要有垂直行业数据,能实现数据闭环,并持续保持和客户的连接。对于大厂而言,要关心自身边界,而创业公司必须对客户和大厂有自身价值才能立足。 目前国内大模型的商业化落地仍处于拿着锤子找钉子的阶段,预计到今年年底头部大模型能基本达到 3.5 水平,明年 11 月有望到 4,但真正能落地的商业化场景有限。
2024-12-07
做视频AI剪辑,含矩阵,分发。国内有哪些免费软件或收费比较效低的
目前国内在视频 AI 剪辑方面,包含矩阵和分发功能,且免费或收费较低的软件相对较少。一些常见的视频剪辑软件如剪映、快影等,具有一定的智能剪辑功能,但可能在矩阵和分发方面的针对性不强。您可以关注一些新推出的软件或者相关软件的优惠活动,以获取更符合您需求且价格合适的选择。
2024-09-07