直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

sd和comfy的详细学习教程推荐

回答

以下是关于系统学习 SD 和 Comfy 的详细教程推荐:

学习 SD 提示词的步骤:

  1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。
  2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。
  3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述作为提示词范例。
  4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。
  5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。
  6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。
  7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。

相关入门教程链接:

  1. Nenly:Stable Diffusion 零基础入门课学习资料汇总
  2. 工具教程:Stable Diffusion
  3. Stable Diffusion 新人视频教程
  4. 教程:视频教程
  5. SD 入门教程
  6. 工具:SD 插件汇总
  7. 工具:姿势参考图网站
  8. 教程:超详细的 Stable Diffusion 教程
  9. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 - 知乎

关于 Comfy 的学习,您可以参考以下知乎教程中的相关部分:教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 - 知乎,其中包含零基础使用 ComfyUI 搭建 Stable Diffusion 推理流程的内容。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

问:如何系统学习 SD 的提示词

学习Stable Diffusion的提示词是一个系统性的过程,需要理论知识和实践经验的相互结合。以下是一些建议的步骤:1.学习基本概念-了解Stable Diffusion的工作原理和模型架构-理解提示词如何影响生成结果-掌握提示词的组成部分(主题词、修饰词、反面词等)2.研究官方文档和教程-通读Stable Diffusion官方文档,了解提示词相关指南-研究来自开发团队和专家的教程和技巧分享3.学习常见术语和范例-熟悉UI、艺术、摄影等相关领域的专业术语和概念-研究优秀的图像标题和描述,作为提示词范例4.掌握关键技巧-学习如何组合多个词条来精确描述想要的效果-掌握使用"()"、""等符号来控制生成权重的技巧-了解如何处理抽象概念、情感等无形事物的描述5.实践和反馈-使用不同的提示词尝试生成各种风格和主题的图像-对比提示词和实际结果,分析原因,总结经验教训-在社区内分享结果,请教高手,获取反馈和建议6.创建提示词库-根据主题、风格等维度,建立自己的高质量提示词库-将成功案例和总结记录在案,方便后续参考和复用7.持续跟进前沿-关注Stable Diffusion的最新更新和社区分享-及时掌握提示词的新技术、新范式、新趋势

第一期:上班的你

[Nenly:Stable Diffusion零基础入门课学习资料汇总](https://waytoagi.feishu.cn/wiki/BrFcwz5MviFVxukw6Esc9w5PnIf)[工具教程:Stable Diffusion](https://waytoagi.feishu.cn/wiki/FUQAwxfH9iXqC9k02nYcDobonkf)[Stable Diffusion新人视频教程](https://waytoagi.feishu.cn/wiki/O5jEwgZIRiQ10xkqGOQcKtSBnSe)[教程:视频教程](https://waytoagi.feishu.cn/wiki/KNFbwWnRJiWSgzksGu3cUDtjn8K)[SD入门教程](https://waytoagi.feishu.cn/wiki/PyZqwOe44i6YfekQ0C5ca8tPnKd)[工具:SD插件汇总](https://waytoagi.feishu.cn/wiki/XdL6wID2vigf82kUyXWcFWMFnDh)[工具:姿势参考图网站](https://waytoagi.feishu.cn/wiki/J4mFwcvzAid0zVkHVS4ccRtynfc)[教程:超详细的Stable Diffusion教程](https://waytoagi.feishu.cn/wiki/ZrpPwKPwji25KmkKVxmcT686nfh)[教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识-知乎](https://waytoagi.feishu.cn/wiki/KmLnwzgkLidzfykk2TMcw885nae)

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

1.Stable Diffusion系列资源2.零基础深入浅出理解Stable Diffusion核心基础原理2.1通俗讲解Stable Diffusion模型工作流程(包含详细图解)2.2从0到1读懂Stable Diffusion模型核心基础原理(包含详细图解)2.3零基础读懂Stable Diffusion训练全过程(包含详细图解)2.4其他主流生成式模型介绍3.Stable Diffusion核心网络结构解析(全网最详细)3.1 SD模型整体架构初识3.2 VAE模型3.3 U-Net模型3.4 CLIP Text Encoder模型3.5 SD官方训练细节解析4.从0到1搭建使用Stable Diffusion模型进行AI绘画(全网最详细讲解)4.1零基础使用ComfyUI搭建Stable Diffusion推理流程4.2零基础使用SD.Next搭建Stable Diffusion推理流程4.3零基础使用Stable Diffusion WebUI搭建Stable Diffusion推理流程4.4零基础使用diffusers搭建Stable Diffusion推理流程4.5 Stable Diffusion生成示例5.Stable Diffusion经典应用场景5.1文本生成图像5.2图片生成图片5.3图像inpainting5.4使用controlnet辅助生成图片5.5超分辨率重建6.从0到1上手使用Stable Diffusion训练自己的AI绘画模型(全网最详细讲解)6.0 Stable Diffusion训练资源分享6.1 Stable Diffusion模型训练初识6.2配置训练环境与训练文件6.3 SD训练数据集制作6.4 Stable Diffusion微调(finetune)训练

其他人在问
comfyui flux相关的教程
以下是关于 ComfyUI Flux 的教程: 安装及使用: 模型放置: t5xxl_fp16.safetensors:放在 ComfyUI/models/clip/目录下。 clip_l.safetensors:放在 ComfyUI/models/clip/目录下。 ae.safetensors:放在 ComfyUI/models/vae/目录下。 flux1dev.safetensors:放在 ComfyUI/models/unet/目录下。 下载地址: 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 工作流下载:上面提供的工作流复制即可,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将工作流或图片拖拽到 ComfyUI 里。 ComfyUI 共学相关: 插画提效成果显著,原本需要 200 人美术团队一年多完成的 1 万多张动画插画,最终不到 10 人用半年完成。 课程从零基础开始,从认识 config、UI 及行业概念讲起,逐步深入到环境部署、底层技术概念、提示词等内容。 介绍 config 牛角尖大王系列,包括 control net、IP Adapter、图像放大、mask 等部分,阐述了它们的作用和玩法。 具备搭建复杂工作流能力,学习相关知识后初步具备搭建复杂工作流能力,会拆解分析网上热门工作流。 解决 config UI 报错问题,报错问题可分为网络、模型、工作流搭建、环境等方面,安装新插件时可参考项目地址的 requirement 文档。 规划实战案例思路,目前想到了三个实战案例的思路。 关于 config UI 生态及相关技术的分享,郭佑萌介绍课程提纲,包括课程可能的扩充、回顾总结及重点讲解 Flux 模型,实际课程不严格按大纲走,会根据大家接受程度和安排进行共学。
2024-09-16
我想学comfy ui
以下是一些关于学习 Comfy UI 的资源和信息: ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。可在获取相关信息。 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了其特点、安装方法及生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户。可在找到相关教程。 Bilibili:提供了从新手入门到精通各个阶段的一系列视频教程,可在找到。 此外,还有以下相关内容: 第 1 课:做最好懂的 Comfy UI 入门教程:Stable Diffusion 专业节点式界面新手教学。教学辅导书(含知识点扩充与分享链接):,每日登录即可领取 100 羊毛,可支持免费生成 100 张图! 学习使用 ComfyUI 的原因:更接近 SD 的底层工作原理;自动化工作流,符合 AI 精神,即消灭重复性工作;作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 api 等,还可根据定制需求开发节点或模块。 内容由 AI 大模型生成,请仔细甄别。
2024-09-15
在COMFYUI中使用FLUX大模型时,怎么才能让多次生成的人物一致
在 ComfyUI 中使用 FLUX 大模型让多次生成的人物一致的方法如下: 控制人物在多场景、多个姿势下的一致性有很多方法,课程后期会介绍。 对于多张图输出的显示问题,一次产出多张图在预览窗口目前不能并排显示。 Lora 的刷新:将 Lora 丢到文件夹后,多点几次刷新即可,Web UI 中 Lora 库有刷新按钮。 另外,在 Midjourney 中,人物一致性已上线,其操作如下: DavidH 介绍:Hey @everyone @here we're testing a new "Character Reference" feature today This is similar to the "Style Reference" feature, except instead of matching a reference style it tries to make the character match a "Character Reference" image. 具体操作:Type cref URL after your prompt with a URL to an image of a character. You can use cw to modify reference 'strength' from 100 to 0. strength 100 . 适用范围:This feature works best when using characters made from Midjourney images. It's not designed for real people / photos . 网页端操作:How does it work on the web alpha? Drag or paste an image into the imagine bar, it now has three icons. Selecting these sets whether it is an image prompt, a style reference, or a character reference. Shift + select an option to use an image for multiple categories. 在 ComfyUI 中处理模型连接和提示词相关问题,如让两个模型同时起作用的操作: 加入一个新节点,右键点击 【新建节点】 【实用工具】 【Primitive 元节点】。 在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上就多了一个文本的连接点。 将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
2024-09-13
Way to AGI里所有COMFYUI工作流
以下是关于 ComfyUI 工作流的相关内容: 打开节点树的列表,可以看到文生图、图生图以及 ControlNet 等常见工作流。选择文生图,会有更细化的预设工作流选项,ControlNet 中也有工作流预设,还有根据插件整理的丰富工作流。例如可选择“文生图”中的“基础+自定 VAE”,选好后点击“替换节点树”,界面会出现已连接好的工作流节点,包括大模型、clip、vae、正反提示词、尺寸、采样器等熟悉的参数,且是中文面板。不了解操作的可参考上一篇【ComfyUI】本地部署 ComfyUI 上手指南。 国内的 ComfyUI 工作流网站有: eSheep 电子羊 AIGC 社区 https://www.esheep.com/app ,主页点击工作流/应用分区,即可浏览、下载或在线运行各类工作流。 AIGODLIKE https://www.aigodlike.com/ ,下拉选取“ComfyUI 奥术”,即可查看其他用户上传的 ComfyUI 生成图片,保存或复制参数皆可读取到图片中的工作流。 在完成准备工作后运行 ComfyUI,默认版本不支持模型版本和 node 管理,需安装 ComfyUI Manager 插件。工作流下载好后,可使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,最后在 ComfyUI 目录下的 output 文件夹查看生成好的视频。若生成视频时出现显存溢出问题,请另行处理。
2024-09-13
学习comfyui有哪些技术或者文章可以学习和参考?
以下是一些学习 ComfyUI 的技术、文章和资源: 飞书学习群中的相关内容: 陈旭常用节点讲解和简单的节点制作 长风归庭基础教程+工作流创建 ヘヘ阿甘采样器原理与优化 王蓉🍀 🎈 Wang Easy 基础搭建和转绘 唯有葵花向日晴基础教程,工作流开发,实际应用场景 热辣 HuolarrAI 系统课私聊图生视频 咖菲猫咪基础教程/工作流搭建思路/各版本模型使用的优缺点 傅小瑶 Lucky 如何制作多人转绘视频 云尚工作流节点搭建思路 FǎFá 热门节点功能,搭建 森林小羊基本报错解决方式及基础工作流逻辑分析 苏小蕊基础教程 Sophy 基础课程 蜂老六装一百个最新常用插件后如何快速解决冲突问题 阿苏工作流框架设计 aflyrt comfyui 节点设计与开发 老宋&SD 深度解释虚拟环境部署和缺失模型的安装 Liguo 模型训练 啊乐福基础课程 塵优秀案例 风信基础课程➕平面设计应用场景 北南基础课程 视频工作流框架设计 8 月 13 日 ComfyUI 共学的相关内容:算力和资源获取方面,飞翔提供了 50 个小时的算力时间,可在飞书群填问卷获取,分享模型较少可提建议,相关文档在飞书和公众号中。AI 绘图相关技术与工具的介绍及交流公众号文章包含 AGI 相关信息:通往 AGI 之路的公众号最新文章中有相关信息,内置工作流和启动器方便,Mac 系统因无 CUDA 生态不太好用。推荐提示词辅助插件:如 SDXL 的 S1XL style,可对提示词进行风格化扩充,还有能翻译提示词的插件,如沙拉查词、沉浸式翻译等。解释 CLIP 和 CFG 的区别:CLIP 用于解析提示词,将其转化为模型可理解的向量,CFG 是提示词对画面影响的强度,即提示词引导系数。搭建带 Lora 的图生图工作流:介绍了加载模型、设置 clip 跳过层、处理图像、连接采样器和解码器等步骤,并展示效果。关于 Lora 串联和图像放大模型的讨论 Lora 串联:多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层调整:CLIP 层1 和2 的效果不同,加 Lora 时某些 Lora 可能更适合2。 相关网站: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。可在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可在找到视频教程。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-12
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05
SD网址多少
以下是一些常用的与 SD 相关的网址: 另外,SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库:github.com/StabilityAI/stablediffusion 。我们可以通过一系列的工具搭建准备,使用 SD 进行想要的图片生成。 关于 SD 的安装: 系统需为 Win10、Win11 。 Win 系统查看配置。 配置达标跳转至对应安装教程页: 。 配置不够可选择云端部署(Mac 也推荐云端部署): 。 备选:SD 好难,先试试简单的无界 AI: 。
2024-09-18
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
SD 模型
以下是关于 SD 模型的相关信息: 模型安装设置: 二维码做好后进入 SD 版块,需下载两个 SD 的 ControlNET 模型和一个预处理器。可添加公众号【白马与少年】,回复【SD】获取。在【QR ControlNET】文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”路径下。选择“cheeseDaddys ”模型,填入描绘梦幻森林的关键词,同时将迭代步数设置到 15,采样选择 DPM++ 2M Karras,图像大小设置到 768768。 核心基础原理: 1. SD 模型是生成式模型,输入可以是图片、文本以及两者的结合,输出是生成的图片。 2. 属于扩散模型,其整体逻辑特点是过程分步化与可迭代,为生成过程引入更多约束与优化提供可能。 3. 是基于 Latent 的扩散模型,将输入数据压缩到 Latent 隐空间中,大幅提高计算效率并降低显存占用,是破圈关键。 4. 从 CTO 视角看,是一个优化噪声的 AI 艺术工具。 工作流程: Stable Diffusion(SD)模型由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。以文生图(txt2img)和图生图(img2img)任务为例,文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数,输出符合文本描述的图片;图生图任务在输入文本基础上再输入一张图片,SD 模型根据文本提示将输入图片重绘以更符合文本描述。输入的文本信息需转化为 SD 模型能理解的机器数学信息。
2024-09-11
SD大模型下载网站
以下是一些 SD 大模型的下载网站和相关信息: Civitai(https://civitai.com/):这是一个常用的网站,有各种风格的大模型,如真实系、二次元、游戏 CG 风等,但需要科学上网。如果不会科学上网,也可以去启动器的界面直接下载模型,但这里看不见预览图。下载的大模型应放在根目录的【……\\models\\Stablediffusion】文件夹下。 对于 Fooocus,大模型(base 和 Refiner)默认放在这里:\\ Fooocus_win64_1110\\ Fooocus\\models\\checkpoints;LoRA 模型默认放在这里:\\ Fooocus_win64_1110\\ Fooocus\\models\\loras。如果单独安装,需要下载的模型链接如下: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 在 Civitai 网站的使用方法: 1. 科学上网(无法教授具体方法,需自行解决)。 2. 点击右上角的筛选按钮,在框框里面找到自己需要的模型类型,如 Checkpoint=大模型,LoRA=Lora。 3. 看照片,感兴趣的点进去,点击右边的“Download”下载,保存到电脑本地,文件保存位置在前面提到的相关文件夹。另外,还可以点击左上角的“Images”,看到喜欢的图片点进去,点进去后的页面可看到图片的全部信息,直接点击 Lora 和大模型,可直接跳转到下载页面。点击最下面的“Copy...Data”可复制图片的所有信息,回到 SD 粘贴到关键词的文本框,点击右边的按钮,这些信息就会自动分配。需要注意的是,大模型需要手动更换。
2024-09-06
sd3大模型的教程
以下是关于 SD3 大模型的一些教程资源: 【AI 艺境】ComfyUI 快手 Kolors 模型基础使用工作流全套模型网盘分享: 作者:极点 AI 类型:教学视频 链接: 备注:商用工作流请自行辨别 拳打 SD3 脚踢 MidjourneyV6?某手开源的可图 Kolors 到底是不是真的强,内附 Comfyu 部署教程: 作者:淼淼爸的 AI 笔记 类型:评测视频 链接: 国产超牛的开源大模型可图 kolors: 作者:大桶子 AI 类型:评测视频 链接:(https://www.bilibili.com/video/BV1MZ421T79S/? 另外,关于 SD3 的一些说明: SD3 已开放下载(并非开源,是收费的)。 基础模型包括:主模型“sd3_medium”,文本编码器“clip_g”“clip_l”“t5xxl_fp16/t5xxl_fp8_e4m3fn”。在 ComfyUI 中使用时需分别通过模型加载器和 CLIP 加载器加载,“t5xxl”是非必要项。 融合了文本编码器的模型有 2 个:无 T5 的“sd3_medium_incl_clips = sd3_medium + clip_g + clip_l”,有 T5 的“sd3_medium_incl_clips_t5xxlfp8 = sd3_medium + clip_g + clip_l + t5xxl_fp16/t5xxl_fp8_e4m3fn”。在 ComfyUI 中使用时直接用模型加载器加载主模型即可,无需 CLIP 加载器(如同之前的 SD1.5 或 SDXL 的基础工作流)。下载地址(huggingface 比较慢,多放几个百度云盘)。
2024-09-02
sd课程
以下是为您提供的关于 Stable Diffusion(SD)课程的相关信息: 1. 有作者“白马少年”出品的“爆肝制作!Stable Diffusion 零基础入门宝典”课程。作者从事平面设计行业,因对 SD 的学习和研究,在公众号分享了五十几篇使用心得的原创文章,并录制了一套近 80 个课时的零基础入门课程。课程链接:https://www.cctalk.com/m/group/90942118?promoteId=84811D61000B39B9263146248464A904 2. 推荐学习 Nenly 同学在 B 站的“第一套 Stable Diffusion 系统课程”合集。在安装完 SD 后,强烈推荐跟着此合集走一遍,可快速掌握 SD 的基础技能,完整走一遍基础教程大概需要 4 小时左右。合集链接: ,SD 安装教程:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh
2024-09-01
@ 用ai制作优美的歌曲用什么工具软件,详细的使用教程
以下是用 AI 制作优美歌曲的相关工具软件及使用教程: 工具软件: 1. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。网址:https://www.udio.com/ 2. Suno AI:是一款革命性的人工智能音乐生成工具,它通过先进的深度学习技术,能够将用户的输入转化为富有情感且高质量的音乐作品。网址:https://suno.com/ 使用教程: 1. 导出时间轴歌词:使用剪映(剪辑软件),其导出时间轴歌词的功能位置如下图所示。 2. 音乐分轨:可以使用腾讯 QQ 音乐旗下的 TME Studio,支持一键分轨,再将分轨好的音频文件进行全部导出。TME Studio 网站链接:https://y.qq.com/tme_studio/ 3. 音频编辑:对于分轨好的视频,可以导入 Adobe Audition 进行编辑。有编曲经验的同学可以自由发挥,没有编曲经验的小白可以打开电脑的录屏工具,录制歌曲的工程文件,上传提供创作证明。 4. 准备音频素材: 使用干声转换时,在软件中分别导入人声干声和伴奏,放在两个轨道上。干声用于转成 MIDI 做 AI 演唱。 男歌女唱或者女歌男唱时,在导入前先进行变调。常用的工具包括 TME Studio(腾讯音乐开发的 AI 音频工具箱,其中最常用的是音频分离,可用于将人声和伴奏从歌曲中提取出来。地址:https://y.qq.com/tme_studio/index.html/editor)和 Vocalremover(包含音频分离、变调、BPM 查询等功能,使用较多的是变调和 BPM 查询。建议在准备素材阶段,就将音频调整到所需调,并获取到 BPM。地址:https://vocalremover.org/zh/keybpmfinder) 关于申请网易云音乐人和上传音乐,只提供了认证成功的方法和过程,不能确保所有人都能成功,这是一个概率性的问题。此外,根据 AI 创作目前的特殊性,会在平台上声明此音乐为 AI 创作,并且也绝对支持尊重所有原创作品,也希望平台能尽快开辟一个 AI 创作的专区,可以提供一个容纳并保护所有群体的不同板块。
2024-09-17
runway教程
以下是关于 Runway 的教程信息: 官方使用教程:https://academy.runwayml.com/ 知识库详细教程: 简单介绍:支持文生视频、图生视频、视频生视频。文生视频支持正向提示词、风格选择、运镜控制、运动强度控制、运动笔刷(https://academy.runwayml.com/gen2/gen2motionbrushinterface),支持 16:9、9:16、1:1、4:3、3:4、21:9 尺寸,可设置种子值。图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同。生成好的视频可以延长时间,默认生成 4s 的视频。 Runway 网页:https://runwayml.com/ 5 分钟,手把手入门:
2024-09-17
有没有快速帮我入门使用AI的教程
以下为您提供两份快速入门 AI 的教程: 《写给不会代码的你:20 分钟上手 Python + AI》 在深入学习 AI 时,许多朋友因需要编程而感到困难,且各类教程默认会打命令行,导致入门不易。此教程旨在让大家更快掌握 Python 和 AI 的相互调用,在接下来的 20 分钟内,您将循序渐进地完成以下任务: 1. 完成一个简单程序。 2. 完成一个爬虫应用,抓取公众号文章。 3. 完成一个 AI 应用,为公众号文章生成概述。 《AI 线上绘画教程》 如果您在工作中需要大量图片,AI 生图是高效的解决办法。主流工具如 midjourney(MJ)付费成本高,stable diffusion(SD)硬件门槛不低,但还有像这样的免费在线 SD 工具网站。此教程就是解决不会使用这些工具的问题,从开始探索到写完前两篇教程仅 10 天,说明入门不难。
2024-09-16
cursor教程
以下是关于 Cursor 的教程: 模型选择: 在 AI 输入框下方,有一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor 已准备好使用以下模型: cursorsmall:这是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。您还可以在 Cursor Settings > Models > Model Names 下添加其他模型。 从 VS Code 迁移: Cursor 是 VS Code 的一个分支。这使我们能够专注于使用 AI 编写代码的最佳方式,同时提供熟悉的文本编辑体验。 您可以通过单击右上角的齿轮按钮、按 Ctrl/⌘ + Shift + J 或 Ctrl/␣ + Shift + P 并键入 Cursor Settings 来打开光标特定设置窗格。也可以使用 Ctrl/⌘ + Shift + P,然后键入 VS Code Settings 来打开 VS Code 特定设置。 产品特点与应用: Cursor 是一个集成了 claude3.5sonnet、GPT4 等多个模型的编辑器,国内可以直接使用,支持多种语言(如 python、java、C等),也支持在多平台安装。可用于聊天、辅助写代码、辅助写作等功能,能更好地为开发者服务。 它继承了 vscode 的强大功能和用户界面,几乎一模一样,还深度集成了 gpt 等大模型,无缝融入了包括 IntelliJ IDEA、Visual Studio Code 和 GitHub 在内的主流开发环境和代码库中。具有体量小、启动快、编程效率高的优点。 Anysphere 公司的客户群已拓展到像 OpenAI、Midjourney、Perplexity 等知名大企业。价格方面,Cursor 目前提供了 3 种订阅模式。
2024-09-15
哪里有系统的视频教程?
以下是一些系统的 AI 相关视频教程资源: 关于 stable diffusion 的教程: 「AI 绘画」软件比较与 stable diffusion 的优势 「AI 绘画」零基础学会 Stable Diffusion 「AI 绘画」革命性技术突破 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错 关于 ComfyUI 的教程: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。可在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可在找到视频教程。 请注意,上述内容由 AI 大模型生成,请仔细甄别。
2024-09-15
某银行计划对外采购2024年分行内训师培训项目,现需要对采购内容做详细要求,培训内容以AI工具课程开发与设计,课程制作与实践,短视频制作,直播授课技巧等,我该如何对培训老师资质,授课经验,AI工具运用等技能做细化要求
以下是为您提供的关于银行采购 2024 年分行内训师培训项目中对培训老师资质、授课经验、AI 工具运用等技能的细化要求建议: 培训老师资质: 具备相关领域的专业教育背景,如计算机科学、人工智能等。 持有相关的行业认证或资格证书。 授课经验: 拥有丰富的企业内训经验,特别是在金融行业的培训经历。 成功完成过类似 AI 工具课程开发与设计、课程制作与实践等相关课程的授课。 AI 工具运用技能: 熟练掌握多种主流的 AI 工具,如常见的机器学习框架、自然语言处理工具等。 能够运用 AI 工具进行实际项目开发,并具有相关的案例成果。 熟悉短视频制作和直播授课中涉及的 AI 辅助技术,如智能剪辑工具、虚拟主播技术等。 希望以上建议对您有所帮助。
2024-09-13
国内免费ai的排行榜,要求详细信息简述
目前国内免费 AI 产品的排名情况会因不同的评估标准和时间而有所变化,暂时没有确切和权威的排行榜信息。但一些常见的免费 AI 工具和平台包括百度的文心一言、字节跳动的云雀模型等。这些工具在自然语言处理、图像识别等领域都有一定的应用和特点。您可以根据自己的具体需求和使用场景,对它们进行试用和比较。
2024-09-05
如何详细学习coze
以下是关于如何详细学习 Coze 的一些资源和建议: 1. 蓝衣剑客的四万字长文,其中提到在深入探讨生产力工具的创新前,先了解如何在 Coze 上创建工作流,并将其配置到 Bot 上,这是掌握使用 Coze 的关键环节。新手建议从此处开始学习,熟悉操作的可跳过。 2. 一泽 Eze 的万字实践教程,通过实际案例逐步演示用 Coze 工作流构建能稳定生成结构化内容的 AI Agent,包括开源 AI Agent 的设计到落地的全过程思路、10 多项常用的 Coze 工作流的配置细节、常见问题与解决方法。文末“拓展阅读”中有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容可供前置或拓展学习。此教程适合玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。 3. 大圣的胎教级教程,包括 Coze 实操徒手捏 Bot 等内容。同时提到看十遍不如实操一遍,实操十遍不如分享一遍。如果对 AI Agent 技术感兴趣,可联系作者或加入其免费知识星球(备注 AGI 知识库)。作者和艾木还打造了一款关于 AI Agent 的付费课程,相关信息可通过了解,感兴趣的可加作者 V 信咨询(备注:Coze 课程)。
2024-09-05
有去了解哪些国内外的Agent产品?详细讲讲其中一个
国内外有多个 Agent 产品,以下为您详细介绍其中一些: 1. 扣子(coze.cn):是国内的新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成了丰富的插件工具,可拓展 Bot 的能力边界。 2. Coze(coze.com):海外版的 Agent 平台。 3. 百度 AppBuilder:百度推出的相关平台。 4. 阿里通义千问:具有一定特色和功能。 5. 智谱 AI:在 AI 领域有一定影响力。 此外,还有以下一些 Agent 构建平台: 1. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 2. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者根据自身需求打造产品能力。 3. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 4. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 5. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 在 ToC 领域,目前成体系的主要有以下几类产品: 1. 主打 AI 角色扮演赛道的产品,例如“猫箱”“剧本戏”“名人朋友圈”这类,在 LLM 基础上,在 prompt 上加了些特定角色定义。 2. 主打 AI 陪伴类的产品,例如“星野”“Talkie”“BubblePal”等,这类产品在 LLM 基础上,在 prompt 上加了些特定角色定义,且会在长短记忆上做出处理,以突出陪伴意义。随着陪伴时间越久,知识库沉淀的个性化记录越丰富,AI 也会越懂您。 3. 做 AI 搜索工具的产品,例如“秘塔”“360 搜索”等,这类产品多为 RAG,也有会在搜索内容基础上,把内容结构化,整出一个图谱或者脑图。 4. 单纯的做 AIGC 的产品,例如“可灵”“ai 写作手”“即梦”“md”等,借助 AI 的生成能力做出。 5. Agent 产品,目前只有头部的厂商在做,比如字节的扣子,支付宝的智能助理,百度的文心智能体,腾讯的元宝。
2024-09-04
请详细介绍可灵,以及在哪里能使用
可灵是由快手团队开发的一款 AI 应用。 其主要特点和功能包括: 用于生成高质量的图像和视频。 支持文生视频、图生视频。 图生视频支持首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除不可运镜控制外,其他与文生视频基本相同。 默认生成 5s 的视频。 使用方面: 最初采用内测邀请制,现在已向所有用户开放使用。 价格相对较高,重度用户最高档年费可能达几千元人民币,平均每月使用成本在 400 到 600 元人民币之间。但有每日免费点数和 60 多元单月的最便宜包月选项,适合轻度用户。 可访问性方面: 为国内用户提供了更加便捷、稳定的使用体验,降低了使用门槛。 在国内文生视频领域,可灵具有显著优势,代表了国内 AI 视频生成技术的最高水平,为用户提供了优质的服务体验,填补了国内在高端 AI 视频生成领域的空白,为整个行业树立了新的标杆。 访问地址:https://klingai.kuaishou.com/ 知识库详细教程:
2024-09-01