Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ComfyUI的文档在哪里

Answer

以下是一些可以获取 ComfyUI 相关文档和学习资料的途径:

  1. ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。您可以在ComfyUI 官方文档网站找到相关信息。
  2. 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是优设网的 ComfyUI 入门教程
  3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可以在知乎的 ComfyUI 介绍找到相关教程。
  4. Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可以在Bilibili 的 ComfyUI 系列教程找到视频教程。

此外,还有以下相关资料:

  1. 关于 ComfyUI 节点的详细文档,由卡卡布使用 AI 分析整理,包括了 200+官方节点和 1000+第三方节点的详细信息,涵盖每个节点的功能、选项作用及代码实现,便于用户搜索和了解 ComfyUI 节点。
  2. 在使用 ComfyUI-AdvancedLivePortrait 这个节点时,可能会遇到少了 landmark_model.pth 这个文件的错误,在网盘里可以找到完整的。相关资料链接:
    • 百度网盘:通过网盘分享的文件:图片换背景 链接:https://pan.baidu.com/s/1jN_0R791QmjxbIEgzRyv9w?pwd=cycy 提取码:cycy
    • 说明文档:https://xiaobot.net/post/4ad59e75-46e4-43cb-a0d2-70eab7e0da98
    • 更多内容收录在:https://xiaobot.net/p/GoToComfyUI
    • 网盘:https://pan.quark.cn/s/a4b94677ce99
    • 工作流:https://www.liblib.art/modelinfo/cc6d850d24f6462084c0bc1eb5374e3c?from=personal_page
    • 视频:https://www.bilibili.com/video/BV1FzsbeTEQV/?vd_source=ecb7194379e23ea8b1cb52e3bd5d97ef
    • workflow:https://www.shakker.ai/modelinfo/cc6d850d24f6462084c0bc1eb5374e3c?from=personal_page
    • video:https://youtu.be/W0x3VjwWnAQ

请注意,内容由 AI 大模型生成,请仔细甄别。由于 AI 技术更新迭代,请以文档更新为准。

Content generated by AI large model, please carefully verify (powered by aily)

References

问: 有没有comfy ui相关的学习资料?

是的,根据搜索结果,有几个网站提供了关于ComfyUI的学习教程:1.ComfyUI官方文档:提供了ComfyUI的使用手册和安装指南,适合初学者和有经验的用户。你可以在[ComfyUI官方文档网站](https://www.comfyuidoc.com/zh/)找到相关信息。2.优设网:提供了一篇详细的ComfyUI入门教程,这篇教程适合初学者,详细介绍了ComfyUI的特点、安装方法以及如何使用ComfyUI生成图像等内容。教程地址是[优设网的ComfyUI入门教程](https://www.uisdc.com/comfyui-3)。3.知乎:有用户分享了ComfyUI的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解ComfyUI的用户。可以在[知乎的ComfyUI介绍](https://zhuanlan.zhihu.com/p/662041596)找到相关教程。4.Bilibili:提供了一系列的ComfyUI视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习ComfyUI的使用。可以在[Bilibili的ComfyUI系列教程](https://www.bilibili.com/video/BV14r4y1d7r8/)找到视频教程。这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握ComfyUI的使用。内容由AI大模型生成,请仔细甄别。

使用说明 副本

这是一个关于ComfyUI节点的详细文档,由卡卡布使用AI分析整理,包括了200+官方节点和1000+第三方节点的详细信息,涵盖每个节点的功能、选项作用及代码实现,便于用户搜索和了解ComfyUI节点

ComfyUI 图片合并背景替换

使用ComfyUI-AdvancedLivePortrait这个节点时候,可能会遇到错一个错误,就是少了landmark_model.pth这个文件。在网盘里可以找到完整的。[heading3]资料链接[content]百度网盘通过网盘分享的文件:图片换背景链接:https://pan.baidu.com/s/1jN_0R791QmjxbIEgzRyv9w?pwd=cycy提取码:cycy说明文档https://xiaobot.net/post/4ad59e75-46e4-43cb-a0d2-70eab7e0da98由于AI技术更新迭代,请以文档更新为准更多内容收录在⬇️https://xiaobot.net/p/GoToComfyUI网盘https://pan.quark.cn/s/a4b94677ce99工作流https://www.liblib.art/modelinfo/cc6d850d24f6462084c0bc1eb5374e3c?from=personal_page视频https://www.bilibili.com/video/BV1FzsbeTEQV/?vd_source=ecb7194379e23ea8b1cb52e3bd5d97efworkflowhttps://www.shakker.ai/modelinfo/cc6d850d24f6462084c0bc1eb5374e3c?from=personal_pagevideohttps://youtu.be/W0x3VjwWnAQ

Others are asking
comfyUI能干什么?不能干什么?
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,具有以下特点: 优势: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错的时候也能清晰的发现错误出在哪一步。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 应用场景包括: 1. 作为一个强大的可视化后端工具,可以实现 SD 之外的功能,如调用 api 及本文所讲的内容等。 2. 可根据定制需求开发节点或模块。 3. 用于抠图素材的制作,如绿幕素材的抠图,还可以自动生成定制需求的抠图素材。 官方链接:https://github.com/comfyanonymous/ComfyUI
2025-03-21
comfyUI能干什么?
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,具有以下特点和功能: 简介:可以将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动和出图速度快。 生成自由度更高。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,能导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 学习使用的原因: 更接近 SD 的底层工作原理。 实现自动化工作流,消灭重复性工作。 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 api 等。 可根据定制需求开发节点或模块。 例如有人因工作室需要抠图素材,传统途径存在问题,而基于 ComfyUI 可以快速自动生成定制需求的抠图素材。 此外,8 月 13 日的 ComfyUI 共学中,包含了对其功能及相关课程内容的介绍,还有关于建筑设计师兼职做 ComfyUI 生态建设、相关模型与工作流的应用案例、内容分享的调整与筹备安排等方面的讨论。
2025-03-21
什么是comfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细介绍: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 生图原理: Pixel Space(像素空间):图的左边表示输入图像的像素空间,在 ComfyUI 中,对应于通过“图像输入”模块或直接从文本提示生成的随机噪声图像,生成过程结束时会将处理后的潜在表示转换回像素空间生成最终图像。 Latent Space(潜在空间):ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点执行采样过程,图像被映射到潜在空间后,扩散过程在这个空间中进行,可通过节点调整对潜在空间的操作。 扩散过程(Diffusion Process):噪声的生成和逐步还原,通常通过调度器控制,可通过“采样器”节点选择不同调度器控制在潜在空间中处理噪声及逐步去噪回归到最终图像,生成图像时扩散模型会进行多个去噪步,可通过控制步数影响图像生成的精细度和质量。 基础教程: 应用场景和不可替代性:SD WebUI 的 UI 有很多输入框和按钮,ComfyUI 的 UI 界面复杂,有很多方块和连线。从学习成本看,ComfyUI 较高,但连线可理解为搭建自动化工作流,从左到右依次运行。从功能角度看,两者提供的功能相同,只是 ComfyUI 是连线方式。这种方式的好处是可以根据需求搭建适合自己的工作流,无需依赖开发者,也可根据需求开发并改造某个节点。选择 ComfyUI 最核心的原因在于它的自由和拓展,能保持灵活适应 AI 发展。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI
2025-03-21
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 webui 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。
2025-03-21
我现在是学了一段时间的comfyui+flux,接下来准备学Python开发comfyui节点、对接模型,这样学下去方向有没有问题呢
您学习 ComfyUI 和 Flux 一段时间后准备学习 Python 开发 ComfyUI 节点并对接模型,这个方向是可行的。以下是一些相关的知识和要点供您参考: 工作流方面: 工作流节点可直接拖动单个节点到任意位置,也可按住 Control 键并用鼠标左键滑框选中多个节点,再按 Shift 键一起拖动。 选中节点后右键新建组,可修改组名、颜色等,组被覆盖时可直接拖动组。 选中节点后右键选择对齐方式,如顶部对齐、左边对齐等。 第三方节点的安装方式包括在 customer NODE manager 中安装、在 GitHub 上复制链接安装、通过终端输入指令安装、在秋叶启动器的版本管理中安装。 可通过 group by Parser 节点控制组,也可通过按住节点按 control b 跳过或按 control m 终止执行。 模型方面: 噪声强度由种子调节,种子固定噪声分布方式,噪声与 CLIP 无关,增大噪声设置值会增强模型对图片重绘的程度。 模型版本的提示词差异:1.5 以 tag 为主,XL 论文称以自然语言为主,但实际使用中因模型微调情况可能仍需用 tag。 Flux 模型有时生成黑图,可能有修复方案,需自行查询。图像生成结果为空,可能是 VAE 编码器与大模型未连接,调整连接后问题解决。 安装方面: 自动打标 joy_caption 副本的节点安装地址为 D:\\ComfyUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes。 安装步骤包括:(Comfyui evn python.exe)python m pip install rrequirements.txt 或点击 install_req.bat,注意 transformers 版本不能太低。 下载模型或者运行 ComfyUI 自动下载模型到合适文件夹,如从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载并放到 Models/LLM/MetaLlama3.18Bbnb4bit 文件夹内。 新版的 PuLID 解决了模型污染的问题,使用新版的节点需要禁用或者删除之前的 PuLID 节点,不然可能会有冲突问题。模型放在 ComfyUI\\models\\pulid 文件夹里面,注意用新版的。 如果使用 PuLID,还需要安装 EVA CLIP 等模型。
2025-03-21
comfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,以下是关于它的详细信息: 简介:可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 安装部署: 电脑硬件要求: 1. 系统:Windows7 以上。 2. 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 3. 硬盘留有足够的空间,最低 100G 起步(包括模型)。 4. 注:mac 系统,AMD 显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。 5. 下载并更新 Nvidia 显卡驱动下载地址 https://www.nvidia.cn/ geforce/drivers/ 下载并安装所需要环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 1. 安装 Python https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 2. 安装 VSCode https://code.visualstudio.com/Download 。 3. 安装 Git https://gitscm.com/download/win 。 4. 安装 CUDA https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 安装地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git 或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 1. 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 2. Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 3. Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 快捷键:(未提供相关内容)
2025-03-18
请你帮我找到AI编程与炼金术 build on trae的课程文档
以下是关于“AI 编程与炼金术 Build on Trae”的课程文档相关内容: 课程活动:包括制作图片字幕生成器、开发网页金句卡片生成器、制作一档专属自己的 AI 博客、制作中文名字生成器、构建一个优质文章推荐网站、制作表情包生成器、开发 Life Coach 应用、构建浏览器智能插件、开发个人网页/小程序,并进行优化部署等。 知识图谱: 章节: 三.使用 DeepSeek R1 给老外起中文名 八.做一档你自己的 AI 播客 九.柴犬表情包生成器实战(Coze bot+API) 十.做一个微信小程序 一.Trae 的介绍/安装/疑难杂症 二.图片字幕生成器 四.DeepSeek R1 驱动的 Life Coach 五.DeepSeek 驱动的网页金句卡片生成 六.做一个你专属的好文推荐网站(DeepSeek R1+飞书多维表格) 七.做一个你专属的好文推荐网站(DeepSeek R1+飞书多维表格)(下) 知识点: Node.JS 安装 Python 安装 相关链接: 其他各章节对应的具体链接 您可以根据上述内容,通过相应的链接获取更详细的课程文档信息。
2025-03-21
RAG技术是什么,你找到了什么文档
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合了检索和生成的技术。 其在多个基准测试中表现出色,如在 Natural Questions、WebQuestions 和 CuratedTrec 等中。用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体且多样,FEVER 事实验证使用后也有更好结果。基于检索器的方法越来越流行,常与 ChatGPT 等流行 LLM 结合使用以提高能力和事实一致性。 RAG 是一种结合检索和生成的技术,能让大语言模型在生成文本时利用额外的数据源,提高生成质量和准确性。基本流程是:先根据用户输入从数据源检索相关文本片段作为上下文,然后将用户输入和上下文拼接传递给大语言模型,最后提取或格式化大语言模型的输出给用户。 大语言模型存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库对数据的存储和更新稳定,数据更新敏捷且可解释,能降低大模型输出出错可能,便于管控用户隐私数据,还能降低大模型训练成本。
2025-03-20
有没有能将PRD文档转化成产品培训文档的AI工具
以下是一些能够将 PRD 文档转化成产品培训文档的 AI 工具: Tome:于 3 月 23 日推出了第一个基于文档的 AI 演示工具,基于 GPT4,能够将文档转换成演示文稿、叙述和故事。链接:https://beta.tome.app/ Gamma:上周五推出了文生演示文稿工具。 ChatPRD、WriteMyPRD、Uizard、tldraw:可以通过人类语言描述想要的产品,得到 80%的完成稿,然后进行修改和发布。
2025-03-20
介绍MCP的文档有哪些
以下是关于 MCP 的一些文档介绍: 1. 《Windsurf Wave3:MCP 协议让 AI 直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab 智能跳转、Turbo 模式》:介绍了 MCP 的基本概念,即纯 LLM 无法行动,MCP 工具可充当其与现实世界交互的手并反馈结果指导下一步行动。同时提供了 MCP 官方文档和 Cursor 关于 MCP 的介绍链接:https://modelcontextprotocol.io/ 、https://docs.cursor.com/context/modelcontextprotocol 。还提到了一些相关工具如 Brave Search、Puppeteer 和 Sequential Thinking 等能让调试和搜索更顺畅,以及热门的 Playwright CDP 能让 AI 控制浏览器变得简单等内容。 2. 《Model Context Protocol官方网站找到,包括架构详细说明、基础协议文档、服务器功能说明、客户端功能文档、贡献指南等。此规范为 AI 应用生态系统提供了标准化的集成方案。 3. 《什么是模型上下文协议(MCP)?它如何比传统 API 更简单地集成 AI?》:解释了 MCP 的价值、工作原理,以及它与传统 API 的关键区别。如 MCP 是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景,像 AI 领域的“USBC 接口”能让不同的 AI 模型与外部工具和数据源轻松连接。还对比了传统 API 整合的复杂性,以及介绍了 MCP 最早由 Anthropic 公司开发,现已成为开放协议并被更多企业和开发者采用。
2025-03-18
根据代码生成需求文档的prompt
以下是关于根据代码生成需求文档的 prompt 相关内容: 背景: 手动写 prompt 很麻烦,只想在出现缺陷时修修改改,所以让 GPT 来起草提示词。 结论: 1. 起草效果不错,按照结构化 prompt 结构输出,具有朴实有用的 Skills,符合先后以及事务本身处理顺序的 Workflows,至少有 3 个支持 Workflows 思维链陈述的 Examples。 2. 节省时间以及脑力,Skills、Workflows、Examples 初稿不用再思考。 3. API 接口中“gpt40613”效果可用且优秀,chatGPT 网页版不理解这个提示词,生成稳定,下方是连续测试 4 次的提示词及其效果。 优化方向:暂无 生成需求文档的步骤: 1. 生成设计方案:将需求抽象简化,分别用不同的 Prompt 生成多份设计方案进行对比。通过调整 Prompt 找到最优方案,避免限制 AI 的发挥空间。 2. 生成代码:确定方案后,完善细节,将完整设计交给 AI 生成代码。如果生成结果有问题,通过调整 Prompt 或更换模型反复优化。 关于 prompt 的基础知识: 1. prompt 是一段指令,用于指挥 AI 生成您所需要的内容,每个单独的提示词叫 tag(关键词)。 2. 支持的语言为英语(不用担心英语不好的问题,),另外 emoji 也可以用。 3. 语法规则: 用英文半角符号逗号,来分隔 tag。注意逗号前后有空格或者换行都不影响效果。 改变 tag 权重: :数值从 0.1~100,默认状态是 1,低于 1 就是减弱,大于 1 就是加强。 括号,权重就重 1.1 倍,每加一层括号就反向减弱 1.1 倍。 进行 tag 的步数控制(高级玩法):就是 SD 先按您输入的这个 tag1 开始生成,然后在达到您设定的步数之后,tag1 停止产生作用,此时 tag2 再参与到对内容生成的影响。,数字大于 1 理解为第 X 步前为 tag1,第 X 步后变成 tag2,数字小于 1 理解为总步数的百分之 X 前为 tag1,之后变成 tag2。
2025-03-14
在开会时实现AI识别语音成文档
目前在开会时实现 AI 识别语音成文档的技术已经较为成熟。常见的实现方式有使用专门的语音识别软件或服务,例如科大讯飞、百度语音等。这些工具通常可以实时将会议中的语音转换为文字,并生成相应的文档。在使用时,需要确保有良好的录音设备以获取清晰的语音输入,同时要注意对识别结果进行适当的校对和修正,以提高文档的准确性。
2025-03-13