Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想问 有没有可以帮忙写 flux 或者其他图像模型 prompt 的 system prompt 模板

Answer

以下是为您整理的相关内容:

关于 FLUX 模型的安装部署

  • 模型选择:FLUX.1 有 dev、dev fp8、schnell 等版本,建议选择 dev 版本,显卡较好可用 fp16,显卡不够选 fp8。模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,可在“UNET 加载器”节点中将 weight_dtype 设置为 fp8,降低显存使用量,但可能稍降质量。
  • clip:t5xxl_fp16.safetensors 和 clip_l.safetensors 放在 ComfyUI/models/clip/文件夹里,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率,超过 32GB 内存建议用 fp16。
  • Vae:下载后放入 ComfyUI/models/vae 文件夹。

关于训练 Midjourney 的 prompt

  • 训练问题:强大的 DMs 通常消耗数百个 GPU 天,推理由于顺序评估而成本高昂。在有限的计算资源上应用 DMs 于强大的预训练自动编码器的潜在空间中训练,可在不影响质量和灵活性的情况下实现复杂度降低和细节保留的最佳点,显著提高视觉保真度。引入交叉注意力层到模型架构使扩散模型成为强大灵活的生成器,支持文本和边界框等一般条件输入,实现高分辨率卷积合成。
  • 版本:Midjourney 定期发布新模型版本以提高效率、连贯性和质量。最新模型为默认,也可通过--version 或--v 参数或/settings 命令选择其他版本。V5 模型于 2023 年 3 月 15 日发布,具有更广泛的风格范围、更高的图像质量、更详细的图像等优点。

关于 ComfyUI 图片提示词反推提示词生成

  • 在 ComfyUI 里使用 MiniCPM 做图片提示词反推与文本提示词生成,可和 flux 模型配合生成图片,建议使用量化版本的模型(int4 结尾)节省显存。
  • 安装方法:进入 ComfyUI 自定义节点目录,克隆相关仓库,重启 ComfyUI。
  • 模型下载:网盘 https://pan.quark.cn/s/00b3b6fcd6ca ,下载后放入 ComfyUI 的 models 文件夹下 MiniCPM 文件夹中,没有就新建一个。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI FLUX

FLUX.1[dev]FLUX.1[dev fp8]FLUX.1[schnell],选一个.建议选择dev版本的,显卡可以的用fp16,显卡不够用的选fp8.模型下载后,放入,这个文件应该放在你的:ComfyUI/models/unet/文件夹中。如果爆显存了,“UNET加载器”节点中的weight_dtype可以控制模型中权重使用的数据类型,设置为fp8,这将使显存使用量降低一半,但可能会稍微降低质量.默认下的weight_type,显存使用比较大.[heading4]clip[content]t5xxl_fp16.safetensors和clip_l.safetensors,放在ComfyUI/models/clip/文件夹里面.https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main可以使用t5xxl_fp8_e4m3fn.safetensors来降低内存使用率,但是如果你有超过32GB内存,建议使用fp16[heading4]Vae[content]下载后,放入ComfyUI/models/vae文件夹https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main[heading3][heading3]T5(/t5xxl_fp16.safetensors)的这个clip,[content]原本是有一个输入输出的。就是有一半是应该空着的。会导致提示词被吞的情况,就是可能会有一半的提示词被吞掉了。所以短提示的效果会比较差。我们在训练flux或者sd3时候,应该尽量的去用长提示词或者自然语言。不要用短提示词。因为T5自带了50%的删标。

训练Midjourney的prompt

The issue with DMs is that the powerful ones often consume hundreds of GPU days,and inference is quite expensive due to sequential evaluations.To enable DM training on limited computational resources without compromising their quality as well as flexibility,DMs are applied in the latent space of powerful pre-trained autoencoders.Training a diffusion model on such a representation makes it possible to achieve an optimal point between complexity reduction and detail preservation,significantly improving visual fidelity.Introducing a cross attention layer to the model architecture turns the diffusion model into a powerful and flexible generator for generally conditioned inputs such as text and bounding boxes,enabling high-resolution convolution-based synthesis.先不用多做回复,请问答是否收到即可?3——————————————————————————————————————VersionMidjourney routinely releases new model versions to improve efficiency,coherency,and quality.The latest model is the default,but other models can be used using the--version or--v parameter or by using the/settings command and selecting a model version.Different models excel at different types of images.Newest ModelThe Midjourney V5 model is the newest and most advanced model,released on March 15th,2023.To use this model,add the--v 5 parameter to the end of a prompt,or use the/settings command and select MJ Version 5.This model has very high Coherency,excels at interpreting natural language prompts,is higher resolution,and supports advanced features like repeating patterns with–tile.What's new with the V5 base model?-Much wider stylistic range and more responsive to prompting-Much higher image quality(2x resolution increase)improved dynamic range-More detailed images.Details more likely to be correct.Less unwanted text-Improved performance with image prompting

ComfyUI 图片提示词反推 提示词生成 MiniCPM节点与FLUX配合使用 再也不怕想不出提示词了

在ComfyUI里使用MiniCPM做图片提示词反推与文本提示词生成。可以和flux模型配合生成图片。建议使用量化版本的模型(int4结尾)可以节省显存。[heading3]ComfyUI-MiniCPM-Plus[heading3]安装方法[content]1.进入ComfyUI自定义节点目录:2.克隆此仓库:3.重启ComfyUI。[heading3]图片提示词反推长文本描述+短标签[heading3]图片提示词反推用于Flux出图[heading3]提示词生成[heading3]生成提示词用于Flux出图[heading3]模型[content]网盘https://pan.quark.cn/s/00b3b6fcd6ca下载后放入ComfyUI的models文件夹下MiniCPM文件夹中,没有就新建一个。

Others are asking
帮我查一下关于deep research的prompt
以下是关于 deep research 的 prompt 相关信息: 一个提示词让 DeepSeek 的能力更上一层楼: 效果对比:用 Coze 做了小测试,可对比查看。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不太稳定)。 完整提示词:v 1.3。 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向;Thinking Claude 是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 集合 Deepseek 提示词方法论: DeepSeek R1 提示词系统完全指南: 核心原理认知: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 8K tokens 上下文窗口,换算成汉字是 4000 字左右);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别 + 内容生成双通道,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架:如果不知道如何表达,可套用框架指令。 四要素模板。 格式控制语法:强制结构,使用```包裹格式要求;占位符标记,用{{}}标注需填充内容;优先级符号,>表示关键要求,!表示禁止项。 2 月 5 日社区动态速览: Deep Research 与 DeepSeek 区别解析:Deep Research 基于 GPT 4o 和 o3,具备 UI 交互和搜索功能,更擅长生成专业报告;而 DeepSeek 只是品牌名称,需搭配具体模型(如 DeepSeek V3 或 DeepSeek R1),其集成搜索效果尚不及 Deep Research。 人工智能与人类智能的关系(官方文件译文):该官方文件《Antiqua et Nova》由圣座教义部与文化教育部发布,探讨 AI 与人类智能的关系,提供了英文原文及中文译文,便于不同语言背景的读者理解。 Deep Research 前置模型提示词泄露:Deep Research 在任务前通过微调的 GPT 4o 交互并调用 research_kickoff_tool 补充上下文,用户可尝试发送“please start_research_task”来触发任务启动。 Anthropic 禁止用 AI 写求职申请:Anthropic 要求求职者在申请过程中不得使用 AI 生成答案,以便更真实地评估其兴趣与沟通能力。
2025-04-01
prompt网站
以下是为您精选的一些 Prompt 网站: 文本类 Prompt 网站: Learning Prompt:授人以渔,非常详尽的 Prompt 学习资源,包括 ChatGPT 和 MidJourney。网站地址: FlowGPT:国外做的最大的 prompt 站,内容超全面,更新快。网站地址: ChatGPT Shortcut:ChatGPT 提示词网站,提供了非常多使用模板,简单修改即可指定输出。网站地址: ClickPrompt:轻松查看、分享和一键运行模型,创建 Prompt 并与其他人分享。网站地址: Prompt Extend:让 AI 帮你自动拓展 Prompt。网站地址: PromptPerfect:帮你自动优化提示词,你可以看到优化前后的对比。网站地址: PromptKnit:The best playground for prompt designers。网站地址: PromptPort(支持中文):AI Prompt 百科辞典,其中 prompts 是聚合了市场上大部分优质的 prompt 的词库,快速的寻找到用户需求 prompt。网站地址: Prompt Engineering Guide:GitHub 上点赞量非常高的提示工程指南。基于对大语言模型的浓厚兴趣,我们编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。网站地址: 图像类 Prompt 网站: AIart 魔法生成器:中文版的艺术作品 Prompt 生成器。网站地址: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器。网站地址: MidJourney Prompt Tool:类型多样的 promot 书写工具,点击按钮就能生成提示词修饰部分。网站地址: Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT&Midjourney。网站地址: img2prompt:根据图片提取 Prompt。网站地址: PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板。网站地址: NovelAI tag 生成器:设计类 Prompt 提词生成器。网站地址: 魔咒百科词典:魔法导论必备工具,简单易用的 AI 绘画 tag 生成器。网站地址: KREA:设计 AI 的 Prompt 集合站,create better prompts。网站地址: Public Prompts:免费的 prompt 合集,收集高质量的提示词。网站地址: OPS 可视化提示词:这个网站有 Mid Journey 的图片风格、镜头等写好的词典库,方便你快速可视化生成自己的绘画提示词。网站地址: MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用。网站地址: OpenArt:AI 人工智能图像生成器。网站地址: AiTuts Prompt:AiTuts Prompt 是一个精心策划的高质量 Midjourney 提示数据库,提供了广泛的不同风格供你选择。网站地址: AcceleratorI Prompt:AI 词汇加速器,加速 Prompt 书写,通过按钮帮助优化和填充提示词。网站地址: MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库。网站地址:
2025-03-31
prompt 工具
以下为一些 Prompt 工具相关的网站: 图像类 Prompt 网站: AIart 魔法生成器:中文版的艺术作品 Prompt 生成器,网址: IMI Prompt:支持多种风格和形式的详细的 MJ 关键词生成器,网址: MidJourney Prompt Tool:类型多样的 promot 书写工具,点击按钮就能生成提示词修饰部分,网址: Prompt Hero:好用的 Prompt 搜索,Search prompts for Stable Diffusion,ChatGPT&Midjourney,网址: img2prompt:根据图片提取 Prompt,网址: PromptBase:Prompt 交易市场,可以购买、使用、销售各种对话、设计 Prompt 模板,网址: promptoMANIA:AI 艺术提示词生成器,网址: pictionAIry:玩游戏也能练习 Prompt 书写,网址: NovelAI tag 生成器:设计类 Prompt 提词生成器,网址: 魔咒百科词典:魔法导论必备工具,简单易用的 AI 绘画 tag 生成器,网址: KREA:设计 AI 的 Prompt 集合站,create better prompts,网址: Public Prompts:免费的 prompt 合集,收集高质量的提示词,网址: OPS 可视化提示词:这个网站有 Mid Journey 的图片风格、镜头等写好的词典库,方便你快速可视化生成自己的绘画提示词,网址: MidJourney 提示词工具:专门为 MidJourney 做的提示词工具,界面直观易用,网址: OpenArt:AI 人工智能图像生成器,网址: AiTuts Prompt:AiTuts Prompt 是一个精心策划的高质量 Midjourney 提示数据库,提供了广泛的不同风格供你选择,网址: AcceleratorI Prompt:AI 词汇加速器,加速 Prompt 书写,通过按钮帮助优化和填充提示词,网址: MidLibrary:Midjourney 最全面的流派、艺术技巧和艺术家风格库,网址: 示例是提高 Claude 性能并引导其生成您期望输出的最强大工具之一。通过在提示中提供一些精心制作的示例,您可以显著提高 Claude 响应的准确性、一致性和质量。这种技术特别适用于需要高度详细或需要结构化输出或遵守特定格式的任务。这种技术也被称为少拍提示(如果只提供一个示例,则称为一拍提示)。
2025-03-31
写作prompt
以下是关于写作 prompt 的相关知识: 写 prompt 是决定 AI 模型如何理解并生成文本的关键步骤。一个好的 prompt 能帮助模型更好地理解任务要求,生成更符合预期的文本。编写 prompt 有以下建议: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,在 prompt 中提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述任务,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在 prompt 中明确指出。 5. 使用示例:若有特定期望结果,在 prompt 中提供示例。 6. 保持简洁:尽量简洁明了,过多信息可能使模型困惑。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整 prompt,可能需多次迭代。 此外,对于使用 GPT 模仿创作内容,我们的目标是找到教 GPT 创作的方法论,将其和示例写到 prompt 中。最快的方法是改写大佬写好的 prompt,比如 JK 老师的欢乐多朋友圈段子生产 V0.3。若之前未写过结构化的 prompt,推荐打开云中江树老师的 LangGPT 项目学习 https://github.com/yzfly/LangGPT/blob/main/README_zh.md 。 在海螺 AI 中,Prompt 精确公式适用于对镜头运动或画面呈现有明确需求、需要更专业视频输出的用户,准确细致的 Prompt 能提供更准确、具美感的视频画面;基础公式适用于对视频镜头呈现无明确需求或期待用 AI 视频激发创作灵感的朋友,自由的 Prompt 可获得更具想象力的画面。Prompt 基础公式为:要创建的主要表现物+场景空间+运动/变化。主要表现物是视频核心信息,场景空间描述周围环境,运动/变化描述主要表现物在视频中的状态。镜头运动可限定画面呈现方式,美感氛围感可对画面视觉风格和氛围感进行限定。 上述两类 Prompt 公式并非严格使用准则,总体来说,更精确和丰富的表达分别能带来更准确的视频信息呈现和更好的生成效果。
2025-03-30
帮我优化提示词prompt
以下是关于优化提示词(Prompt)的全面指导: 一、优化方法 1. 明确具体的描述 使用更具体、细节的词语和短语来描述您想要表达的内容,避免使用过于笼统的词语,以便 AI 能准确理解您的需求。 2. 添加视觉参考 在 Prompt 中插入相关的图片参考,可显著提高 AI 理解您的意图和细节要求的能力。 3. 注意语气和情感 根据需求,用合适的形容词、语气词等调整 Prompt 的整体语气和情感色彩,让 AI 能生成出期望的语境和情绪。 4. 优化关键词组合 尝试不同的关键词搭配和语序,找到最有针对性、最准确表达需求的 Prompt 描述方式。 5. 增加约束条件 为避免 AI 产生意料之外的输出,可以在 Prompt 中添加限制性条件,如分辨率、比例等。 6. 分步骤构建 Prompt 将复杂的需求拆解为逐步的子 Prompt,引导 AI 先生成基本结构,再逐步添加细节和完善。 7. 参考优秀案例 研究 AI 社区流行的、被证明有效的 Prompt 范例,借鉴其中的写作技巧和模式。 8. 反复试验、迭代优化 通过多次尝试不同的 Prompt 写法,并根据输出效果反馈持续优化完善,直至达到理想结果。 二、在星流一站式 AI 设计工具中的应用 1. 提示词输入 在 prompt 输入框中您可以输入提示词、使用图生图功能辅助创作。 2. 提示词的定义 提示词用于描绘您想生成的画面,星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(一个长头发的金发女孩),基础模型 1.5 使用单个词组(女孩、金发、长头发),支持中英文输入。 3. 写好提示词的要点 内容准确:包含人物主体、风格、场景特点、环境光照、画面构图、画质等,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词:点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可以帮助 AI 理解我们不想生成的内容,比如:不好的质量、低像素、模糊、水印。 利用“加权重”功能:可在功能框增加提示词,并进行加权重调节,权重数值越大,越优先。 辅助功能:包括翻译功能(一键将提示词翻译成英文)、删除所有提示词(清空提示词框)、会员加速(加速图像生图速度,提升效率)。 三、相关 Prompt 网站 1. 文本类 Prompt 网站 Learning Prompt:授人以渔,非常详尽的 Prompt 学习资源,包括 ChatGPT 和 MidJourney,网址: FlowGPT:国外做的最大的 prompt 站,内容超全面,更新快,网址: ChatGPT Shortcut:ChatGPT 提示词网站,提供了非常多使用模板,简单修改即可指定输出,网址: ClickPrompt:轻松查看、分享和一键运行模型,创建 Prompt 并与其他人分享,网址: Prompt Extend:让 AI 帮您自动拓展 Prompt,网址: PromptPerfect:帮您自动优化提示词,您可以看到优化前后的对比,网址: PromptKnit:The best playground for prompt designers,网址: PromptPort(支持中文):AI Prompt 百科辞典,其中 prompts 是聚合了市场上大部分优质的 prompt 的词库,快速的寻找到用户需求 prompt,网址: Prompt Engineering Guide:GitHub 上点赞量非常高的提示工程指南,基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具,网址: 总之,编写高质量 Prompt 需要不断实践、总结经验,熟悉 AI 模型的能力边界。保持开放的思维尝试创新的描述方式也很有帮助。
2025-03-30
如何学习Prompt
以下是关于如何学习 Prompt 的详细指导: 一、准备工作 首先,您需要有一个大模型帐号,并熟悉与它们对话的方式。以下为您推荐一些可用的平台: 1. ChatGPT4(性能最强) 2. 国产平替: 二、学习资料 1. 必看 OpenAI 的官方文档: 同时,还有中文精度版的官方 Cookbook 可供参考: 三、网站资源 以下是一些精选的 Prompt 相关网站: |站点名|网站介绍|地址|附件| ||||| |Learning Prompt|授人以渔,非常详尽的 Prompt 学习资源,包括 ChatGPT 和 MidJourney||| |FlowGPT|国外做的最大的 prompt 站,内容超全面,更新快||| |ChatGPT Shortcut|ChatGPT 提示词网站,提供了非常多使用模板,简单修改即可指定输出||| |ClickPrompt|轻松查看、分享和一键运行模型,创建 Prompt 并与其他人分享||| |Prompt Extend|让 AI 帮你自动拓展 Prompt||| |PromptPerfect|帮你自动优化提示词,你可以看到优化前后的对比||| |PromptKnit|The best playground for prompt designers||| |PromptPort(支持中文)|AI Prompt 百科辞典,其中 prompts 是聚合了市场上大部分优质的 prompt 的词库,快速的寻找到用户需求 prompt||| |Prompt Engineering Guide|GitHub 上点赞量非常高的提示工程指南,基于对大语言模型的浓厚兴趣,编写了这份全新的提示工程指南,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。||| 四、学习建议 1. 理解提示词的作用:提示词向模型提供了上下文和指示,其质量直接影响模型输出的质量。 2. 学习提示词的构建技巧: 明确任务目标,用简洁准确的语言描述。 给予足够的背景信息和示例,帮助模型理解语境。 使用清晰的指令,如“解释”、“总结”、“创作”等。 对特殊要求应给予明确指示,如输出格式、字数限制等。 3. 参考优秀案例:研究和学习已有的优秀提示词案例,可在领域社区、Github 等资源中查找。 4. 实践、迭代、优化:多与语言模型互动,根据输出提高提示词质量。尝试各种变体,比较分析输出差异,持续优化提示词构建。 5. 活用提示工程工具:如 Anthropic 的 Constitutional AI。 6. 跟上前沿研究:提示工程是当前前沿研究领域之一,持续关注最新研究成果和方法论。 精心设计的提示词能最大限度发挥语言模型的潜力,多实践、多学习、多总结,终可掌握窍门。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-29
我现在是学了一段时间的comfyui+flux,接下来准备学Python开发comfyui节点、对接模型,这样学下去方向有没有问题呢
您学习 ComfyUI 和 Flux 一段时间后准备学习 Python 开发 ComfyUI 节点并对接模型,这个方向是可行的。以下是一些相关的知识和要点供您参考: 工作流方面: 工作流节点可直接拖动单个节点到任意位置,也可按住 Control 键并用鼠标左键滑框选中多个节点,再按 Shift 键一起拖动。 选中节点后右键新建组,可修改组名、颜色等,组被覆盖时可直接拖动组。 选中节点后右键选择对齐方式,如顶部对齐、左边对齐等。 第三方节点的安装方式包括在 customer NODE manager 中安装、在 GitHub 上复制链接安装、通过终端输入指令安装、在秋叶启动器的版本管理中安装。 可通过 group by Parser 节点控制组,也可通过按住节点按 control b 跳过或按 control m 终止执行。 模型方面: 噪声强度由种子调节,种子固定噪声分布方式,噪声与 CLIP 无关,增大噪声设置值会增强模型对图片重绘的程度。 模型版本的提示词差异:1.5 以 tag 为主,XL 论文称以自然语言为主,但实际使用中因模型微调情况可能仍需用 tag。 Flux 模型有时生成黑图,可能有修复方案,需自行查询。图像生成结果为空,可能是 VAE 编码器与大模型未连接,调整连接后问题解决。 安装方面: 自动打标 joy_caption 副本的节点安装地址为 D:\\ComfyUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes。 安装步骤包括:(Comfyui evn python.exe)python m pip install rrequirements.txt 或点击 install_req.bat,注意 transformers 版本不能太低。 下载模型或者运行 ComfyUI 自动下载模型到合适文件夹,如从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载并放到 Models/LLM/MetaLlama3.18Bbnb4bit 文件夹内。 新版的 PuLID 解决了模型污染的问题,使用新版的节点需要禁用或者删除之前的 PuLID 节点,不然可能会有冲突问题。模型放在 ComfyUI\\models\\pulid 文件夹里面,注意用新版的。 如果使用 PuLID,还需要安装 EVA CLIP 等模型。
2025-03-21
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置随意,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程,完成后提示是否下载 hunyuan 模型,选择 n 不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,选择上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入。 5. 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数。若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 6. 按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择 Lora 和调节参数。
2025-03-15
flux ae.sft放在哪个文件夹
在 ComfyUI 中,flux ae.sft 应放在 ComfyUI/models/vae/ 文件夹下。 Flux 模型在 ComfyUI 中的使用,需要将相关模型放在对应的目录下。具体来说,t5xxl_fp16.safetensors 放在 ComfyUI/models/clip/ 目录下,clip_l.safetensors 放在 ComfyUI/models/clip/ 目录下,ae.safetensors 放在 ComfyUI/models/vae/ 目录下,flux1dev.safetensors 放在 ComfyUI/models/unet/ 目录下。flux1dev.safetensors 是底模,ae.safetensors 是 VAE,clip_l.safetensors 和 t5xxl_fp16.safetensors 是关于文字语言编码。
2025-03-07
ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUI-aki(1)\ComfyUI-aki-v1.6\ComfyUI\models\checkpoints\flux1-dev-fp8.safetensors
很抱歉,根据您提供的错误信息“ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUIaki\ComfyUIakiv1.6\ComfyUI\models\checkpoints\flux1devfp8.safetensors”,暂时无法明确具体的问题原因。可能是模型文件格式不被识别,或者文件路径存在错误等。建议您检查文件的完整性和正确性,确保其符合相关软件的要求。
2025-03-07
midjourney_whisper_flux_lora_v01
以下是关于您提到的“midjourney_whisper_flux_lora_v01”的相关信息: 1. XLabsAI 发布了 6 个不同的 Lora,包括 Midjourney 风格、写实风格、动漫风格、迪斯尼风格、风景风格等,并提供了相应示例。 2. 文生图模型排序(从高到低):Imagen 3 真实感满分,指令遵从强;Recraft 真实感强,风格泛化很好,指令遵从较好(会受风格影响);Midjourney 风格化强,艺术感在线,但会失真,指令遵从较差;快手可图 影视场景能用,风格化较差;Flux.1.1 真实感强,需要搭配 Lora 使用;文生图大模型 V2.1L(美感版) 影视感强,但会有点油腻,细节不够,容易糊脸;Luma 影视感强,但风格单一,糊;美图奇想 5.0 AI 油腻感重;腾讯混元 AI 油腻感重,影视感弱,空间结构不准;SD 3.5 Large 崩。 3. 指定 AI 生图里的文字,有 9 种解决方案,其中 2 种快过时了。包括 Midjourney(v6 版本开始支持文字效果,主要支持英文,中文支持有限)、Ideogram(以图片嵌入文字能力闻名,2.0 模型能力得到进一步加强,支持复杂文本和多种艺术风格,文字与图像能够自然融合,支持英文,中文提示词可自动翻译为英文)、Recraft(V3 开始支持文本渲染能力,是目前唯一能在图像中生成长文本的模型,支持精确的文本位置控制,支持图像编辑功能,支持矢量图生成,支持英文,中文渲染能力较弱)、Flux(FLUX.1 是一款高质量的开源图像生成模型,支持复杂指令,支持文本渲染,支持图像编辑,生成图像的质量很高,主要支持英文)。
2025-03-07
flux 训练lora 教程
以下是关于 Flux 训练 Lora 的教程: 1. 准备模型:需要下载以下几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。注意:不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 4. 0 基础训练大模型: 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以是包含图片 + 标签 txt,也可以只有图片没有打标文件(之后可以在 c 站使用它的自动打标功能),也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后就会上传成功,可以点击详情检查,可以预览到数据集的图片以及对应的标签。 步骤二·Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集,触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后就可以等待训练了,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 5. ControlNet 作者张吕敏再出新项目 LuminaBrush:基于数据集在 Flux 上训练 LoRA,并用 LoRA 生成的图像来扩展这个图像数据集。使用均匀光照图像作为中间表示具有一些优势,比如避免来自 3D 反照率的过于锐利的网格边界或过于平坦的表面。而这些图像在细节层面也足够细腻,可以处理皮肤纹理、头发、毛发等细节。接下来,通过合成随机法线,将这些均匀光照图像进行随机再光照,以训练一个可以从任何输入图像中提取均匀光照外观的模型。第一阶段的这个模型目前也提供了在线 demo:https://huggingface.co/spaces/lllyasviel/lumina_brush_uniform_lit 。第二阶段,会从数百万张高质量的自然场景图像中提取均匀光照外观图像,以构建成对数据集,用于训练最终的交互式光照绘制模型。
2025-03-04
如何根据现有的合同模板搭建一个合同生成的智能体
要根据现有的合同模板搭建一个合同生成的智能体,可以参考以下步骤: 1. 创建智能体:输入人设等信息,并放上相关工作流。 2. 基础配置: 选择“Coze 变现模板(多智能体版)”并“新建项目”,可使用代金券进行抵扣。 添加智能体,获取 Coze Bot 的 ID,导入数据库后上线展示。获取 Bot ID 时,进入 Coze 智能体页面,在地址栏内复制“bot/”之后的数字,且 bot 发布时记得勾选 WEB SDK。回到模板项目,在“coze_bot”数据表中添加智能体,填写相关字段,如宣传图、智能体名称、图标、license、作者和介绍等。 3. 工作流设置: “批处理”节点:循环处理之前“文本”节点生成的文案 List,对每一句文案通过画板生图、通过插件进行语音合成。 “选择器”节点:对循环到的“这句话”进行异常处理,选择不为空的进行后续处理。 “画板”节点:是一个“白色画板”,可添加任意变量进行内容添加,点击编辑进行操作。 “语音合成”节点:输入每一句文案,选择喜欢的音色生成语音。 “图片音频合成”节点:选择合适的视频合成插件。 配置完成后,先进行测试,注意工作流中【所有视频片段拼接】节点使用的插件 api_token 填的是您的 token,其他人调用这个工作流会直接消耗您的 money,所以不能直接发布。您可以将 api_token 作为工作流最开始的输入,用户自己购买后,输入 api_token 就可以使用,然后再发布。
2025-04-01
图片生成提示语模板
以下是为您提供的图片生成提示语模板: 艺术字生成: 模型选择图片 2.1,输入提示词(可以直接参考案例提示词)。 案例参考: 金色立体书法,“立冬”,字体上覆盖着积雪,雪山背景,冬季场景,冰雪覆盖,枯树点缀,柔和光影,梦幻意境,温暖与寒冷对比,静谧氛围,传统文化,唯美中国风。 巨大的春联,金色的书法字体,线条流畅,艺术美感,“万事如意”。 巨大的字体,书法字体,线条流畅,艺术美感,“书法”二字突出,沉稳,大气,背景是水墨画。 巨大的奶白色字体“柔软”,字体使用毛绒材质,立在厚厚的毛绒面料上,背景是蓝天。 “城市狂想”图片制作: 生成了三条提示词: 远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1。 远景,中心对称构图,俯视视角,摄影风格,云雾中的山谷,山峦在云雾中若隐若现,山谷中隐约可见的河流蜿蜒流淌,云雾的流动感和山的静态形成对比,现实主义风格特征,使用长焦镜头和景深控制技术ar 3:2v 6.1。 远景,对角线构图,俯视视角,水墨画风格,云雾缭绕的山谷,山峦线条流畅,云雾以墨色深浅表现,山谷中的云雾仿佛在流动,给人以动态的视觉感受,中国山水画风格特征,使用毛笔和水墨渲染技术ar 2:3v 6.1。 为大家直接生成了 1 组共 12 段提示词,可直接使用。使用时注意,如果是其他平台的工具请复制后删除包含“”以后的部分。 Tusiart 简易上手教程(文生图): 定主题:确定需要生成的图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 ControlNet:控制图片中特定的图像,如人物姿态、特定文字、艺术化二维码等。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 这个即可。 Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语的组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据喜好和需求选择。
2025-04-01
提示词模板
以下是一些提示词模板相关的资源和信息: 相关网站: Majinai: 词图: Black Lily: Danbooru 标签超市: 魔咒百科词典: AI 词汇加速器: NovelAI 魔导书: 鳖哲法典: Danbooru tag: AIBooru: Civitai: 在 PromptLayer 网站创建提示词模板的过程: 首先登录 PromptLayer 的网站(https://promptlayer.com/createaccount)并创建一个账号,新创建的账号默认是 Free 方案,有 1000 次免费请求,足够测试使用。 第二步,开始创建提示词:账号创建完毕后,跳转到”Registry“菜单中,开始提示词模板创建流程。 点击“Create Templates”按钮后,会出现提示词模板编写界面。 页面主要功能: Title:为提示词设定的名称。 System 提示词:是系统级提示词,用于指导和规范模型的行为,是主要编辑区域。 User 提示词:属于用户先行动作设定提示词,常用于表述用户的交互动作。 Assistant 提示词:一般是模型输出的内容,也可通过人工编写模拟模型的回复。User&Assistant 提示词一般在专家模式使用,合理使用可模拟多轮对话效果,帮助调试提示词。 Parameters:可选择和设置使用何种模型进行调试,提供了一些模型的基本参数,可用来进一步调教模型的回复。
2025-03-27
帮我编写一个suno创作提示词模板
以下是为您编写的 Suno 创作提示词模板的相关内容: 在“离谱村”的案例中,首先收到台词素材和配音,确定“童趣”“欢乐”的风格,将相关描述投喂给 GPT4 生成音乐脚本,再输入给 SunoBeats 生成提示词。但初始提示词过长,后参考论坛网友分享的格式,通过调式变化和情节描述,使用和弦进展推动故事情节发展,这种格式的提示词质量和利用率更好。 在“博物馆文物玩法”的案例中,创作思路是给文物上色,参考攻略玩过变形,利用泼洒颜料玩法为雕像上色并使过程有趣。选择首尾帧模式,尾帧基于文物原图重绘为偏写实形象,通过可灵实现人物漂浮效果。涉及工具包括即梦、可灵、Runway、Suno、剪映,各有其优势。步骤为使用即梦图片生成功能上传图片,选择边缘轮廓或人物姿势,不添加景深,提升精细度并选择竖版切割。使用 GPTs 写 Runway 提示词。 希望以上内容对您有所帮助!
2025-03-27
ai绘画提示词思路和模板
以下是关于 AI 绘画提示词的思路和模板的相关内容: 提示词模板的相关网站: 1. Majinai: 2. 词图: 3. Black Lily: 4. Danbooru 标签超市: 5. 魔咒百科词典: 6. AI 词汇加速器: 7. NovelAI 魔导书: 8. 鳖哲法典: 9. Danbooru tag: 10. AIBooru: 描述逻辑: 通常的描述逻辑包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。 辅助工具和方法: 1. 利用相关功能型辅助网站,如 http://www.atoolbox.net/,通过选项卡方式快速填写关键词信息。 2. 参考 https://ai.dawnmark.cn/,其每种参数有缩略图可参考,更直观选择提示词。 3. 去 C 站(https://civitai.com/)抄作业,每张图有详细参数,可复制粘贴到正向提示词栏,注意图像作者使用的大模型和 LORA,也可选取部分好的描述词,如人物描写、背景描述、小元素或画面质感等。 在制作游戏 PV 时的应用: 1. 在故事背景创作阶段,结合 chatGPT 发散制作游戏背景世界观,针对话术改进故事,筛选满意的故事框架内容优化。 2. 引导 ChatGPT 用分镜形式描述。 3. 使用 new bing 共创的故事分镜。 4. 利用 ChatGPt 制作 midjourney 提示词工具,使用生动感性术语和具体细节描述场景,告知 MJ 格式后进入 midjourney 绘图,包括制作 logo。 5. 统一 MJ 风格描述词,建立 AI 描述词模板,根据不同内容更换(如视角、景别、情绪词、画面色调),生成不同画面,提高效率和统一性。 下次作图时,可先选择模板,点击倒数第二个按钮快速输入标准提示词,查看加入标准提示词后的效果。
2025-03-22
写一篇作文,提供一个提示词模板。这样的提示词,要包括哪些内容。
以下是关于提示词模板的相关内容: 在 AI 绘画领域,提示词模板通常包括以下方面: 1. 基本信息:包含角色的姓名、性别、年龄和职业等,为角色奠定基础。 2. 外貌特征:描述角色的物理外观,如服饰、发型发色、五官、表情、动作等。 3. 背景和经历:阐述角色的成长环境和重要人生经历,为理解其行为和思维方式提供背景。 4. 性格和价值观:包括性格特征、核心价值观念以及个人习惯,塑造角色的内在世界。 5. 爱好、特长和语言风格:融合角色的兴趣爱好、特殊才能以及独特的表达方式,展现多面性。 6. 人际关系和社交活动:描述角色的社交圈,包括朋友、潜在对手以及交往倾向,揭示其在社会中的定位和互动方式。 7. 未来规划和目标:勾勒角色的梦想和未来计划,赋予前进的动力和方向。 在编写提示词时,通常的描述逻辑如下:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。 对于新手而言,有以下功能型辅助网站可帮助书写提示词: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 此外,还可以通过以下方式获取和使用提示词: 1. 下次作图时,先选择模板,点击倒数第二个按钮快速输入标准提示词。 2. 参考加入标准提示词后的效果。 3. 利用辅助网站,如 http://www.atoolbox.net/,通过选项卡方式快速填写关键词信息;https://ai.dawnmark.cn/,参考每种参数的缩略图直观选择提示词。 4. 去 C 站(https://civitai.com/)抄作业,复制每一张图的详细参数,粘贴到正向提示词栏,注意图像作者使用的大模型和 LORA,也可选取其中较好的描述词,如人物描写、背景描述、小元素或画面质感等。
2025-03-19
图像识别模型
图像识别模型通常包括编码器和解码器部分。以创建图像描述模型为例: 编码器:如使用 inception resnet V2 应用于图像数据,且大部分情况下会冻结此 CNN 的大部分部分,因为其骨干通常是预训练的,例如通过庞大的数据集如图像网络数据集进行预训练。若想再次微调训练也是可行的,但有时仅需保留预训练的权重。 解码器:较为复杂,包含很多关于注意力层的说明,还包括嵌入层、GRU 层、注意力层、添加层归一化层和最终的密集层等。 在定义好解码器和编码器后,创建最终的 TF Keras 模型并定义输入和输出。模型输入通常包括图像输入进入编码器,文字输入进入解码器,输出则为解码器输出。在运行训练前,还需定义损失功能。 另外,还有一些相关模型的安装配置,如 siglipso400mpatch14384(视觉模型),由 Google 开发,负责理解和编码图像内容,其工作流程包括接收输入图像、分析图像的视觉内容并将其编码成特征向量。image_adapter.pt(适配器)连接视觉模型和语言模型,优化数据转换。MetaLlama3.18Bbnb4bit(语言模型)负责生成文本描述。
2025-03-28
gpt4o图像生成
GPT4o 是 OpenAI 推出的具有强大图像生成能力的多模态模型,能够实现精确、准确、照片级真实感输出。其核心功能包括生成美观且实用的图像,如白板演示、科学实验图解等。亮点功能有精确的文本渲染,能在图像中准确生成文字,如街道标志、菜单、邀请函等;支持多样化场景生成,从照片级真实感到漫画风格均可;具有上下文感知能力,能利用内在知识库和对话上下文生成符合语境的内容。技术上通过联合训练在线图像和文本的分布,学会了图像与语言及图像之间的关系,经过后期训练优化,在视觉流畅性和一致性方面表现出色。实际应用场景包括信息传递、创意设计、教育与演示等。但也存在某些场景或细节的限制。安全性方面,OpenAI 强调了保护。目前该功能已集成到 ChatGPT 中,用户可直接体验。 此外,在 3 月 26 日的 AI 资讯汇总中,OpenAI 推出了 GPT4o 图像生成能力。昨晚 Open AI 更新 GPT4o 图像生成功能后,其真正强大之处在于几乎可以通过自然语言对话完成复杂的 SD 图像生成工作流的所有玩法,如重新打光、扩图、换脸、融脸、风格化、风格迁移、换装、换发型等。
2025-03-28
免费增强图像分辨率的
以下是一些免费增强图像分辨率的工具和方法: 1. Kraken.io:主要用于图像压缩,但也提供免费的图像放大功能,能保证图像细节清晰度。 2. Deep Art Effects:强大的艺术效果编辑器,通过 AI 技术放大图像并赋予艺术效果,支持多种滤镜和风格。 3. Waifu2x:提供图片放大和降噪功能,使用深度学习技术提高图像质量,保留细节和纹理,简单易用效果好。 4. Bigjpg:强大的图像分辨率增强工具,使用神经网络算法加大图像尺寸,提高图像质量,处理速度快。 此外,还有以下相关资源: 1. 【超级会员 V6】通过百度网盘分享的 Topaz 全家桶,链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 ,提取码:16d1 ,复制这段内容打开「百度网盘 APP 即可获取」。 2. RealESRGAN:基于 RealESRGAN 的图像超分辨率增强模型,具有可选的人脸修复和可调节的放大倍数,但使用几次后要收费。 3. InvSR:开源图像超分辨率模型,提升图像分辨率的开源新工具,只需一个采样步骤(支持 1 5 的材料步骤)即可增强图像,可以高清修复图像。地址、在线试用地址:https://github.com/zsyOAOA/InvSR?tab=readme ov filerailway_car online demo 、https://huggingface.co/spaces/OAOA/InvSR 。 4. GIGAGAN:https://mingukkang.github.io/GigaGAN/ 。 5. Topaz Gigapixel AI:https://www.topazlabs.com/gigapixel ai 。 6. Topaz Photo AI:https://www.topazlabs.com/ 。 7. discord:https://discord.gg/m5wPDgkaWP 。
2025-03-24
图像生成
图像生成是 AIGC 的一个重要领域,离不开深度学习算法,如生成对抗网络(GANs)、变分自编码器(VAEs)以及 Stable Diffusion 等,以创建与现实世界图像视觉相似的新图像。 图像生成可用于多种场景,如数据增强以提高机器学习模型的性能,也可用于创造艺术、生成产品图像(如艺术作品、虚拟现实场景或图像修复等)。 一些具有代表性的海外项目包括: Stable Diffusion:文本生成图像模型,主要由 VAE、UNet 网络和 CLIP 文本编码器组成。首先使用 CLIP 模型将文本转换为表征形式,然后引导扩散模型 UNet 在低维表征上进行扩散,之后将扩散之后的低维表征送入 VAE 中的解码器,从而实现图像生成。 DALLE 3(Open AI):OpenAI 基于 ChatGPT 构建的一种新型神经网络,可以从文字说明直接生成图像。 StyleGAN 2(NVIDIA):一种生成对抗网络,可以生成非常逼真的人脸图像。 DCGAN(Deep Convolutional GAN):一种使用卷积神经网络的生成对抗网络,可生成各种类型的图像。 在图像生成的用法方面,图像生成端点允许您在给定文本提示的情况下创建原始图像。生成的图像的大小可以为 256x256、512x512 或 1024x1024 像素。较小的尺寸生成速度更快。您可以使用 n 参数一次请求 1 10 张图像。描述越详细,就越有可能获得您或您的最终用户想要的结果。您可以探索 DALL·E 预览应用程序中的示例以获得更多提示灵感。 图像编辑端点允许您通过上传蒙版来编辑和扩展图像。遮罩的透明区域指示应编辑图像的位置,提示应描述完整的新图像,而不仅仅是擦除区域。 AI 绘图 Imagen 3 具有以下功能点和优势: 功能点: 图像生成:根据用户输入的 Prompt 生成图像。 Prompt 智能拆解:能够自动拆解用户输入的 Prompt,并提供下拉框选项。 自动联想:提供自动联想功能,帮助用户选择更合适的词汇。 优势: 无需排队:用户可以直接使用,无需排队。 免费使用:目前 Imagen 3 是免费提供给用户使用的。 交互人性化:提供了人性化的交互设计,如自动联想和下拉框选项。 语义理解:具有较好的语义理解能力,能够根据 Prompt 生成符合描述的图像。 灵活性:用户可以根据自动联想的功能,灵活调整 Prompt 以生成不同的图像。
2025-03-23
在ai图像训练打标时,怎么让部分标签权重更大
在 AI 图像训练打标时,让部分标签权重更大的方法如下: 1. 在 Stable Diffusion 中,手动补充的特殊 tag 放在第一位,因为 tags 标签有顺序,最开始的 tag 权重最大,越靠后的 tag 权重越小。 2. 在 BooruDatasetTagManager 中采用方法二: 删除部分特征标签,如 All tags 中不该出现的错误识别的自动标签,Image tags 中作为特定角色的自带特征的标签,并将特征与 LoRA 做绑定。 完成所有优化删除后,点击左上角菜单 File>Save all changes 保存当前的设置。 此外,在 Stable Diffusion 训练数据集制作中还需注意: 1. 调用 Waifu Diffusion v1.4 模型需要安装特定版本(2.10.0)的 Tensorflow 库,在命令行输入相应命令完成版本检查与安装适配。 2. 进入到 SDTrain/finetune/路径下,运行相应代码获得 tag 自动标注,其中主要参数包括: batch_size:每次传入 Waifu Diffusion v1.4 模型进行前向处理的数据数量。 model_dir:加载的本地 Waifu Diffusion v1.4 模型路径。 remove_underscore:开启后将输出 tag 关键词中的下划线替换为空格。 general_threshold:设置常规 tag 关键词的筛选置信度。 character_threshold:设置特定人物特征 tag 关键词的筛选置信度。 caption_extension:设置 tag 关键词标签的扩展名。 max_data_loader_n_workers:设置大于等于 2,加速数据处理。
2025-03-15
推荐几个可以对已有图像编辑的AI网站
以下是为您推荐的可以对已有图像进行编辑的 AI 网站: 1. pixelcut.ai:提供图像编辑功能,网址为。 2. Befunky:属于图像编辑类网站,网址是。 3. SnapEditAllinone AI Photo Editor:可进行图像编辑,网址为。 4. Remini:图像编辑网站,尤其在提升分辨率方面有特色,网址是。 5. Erase.bg:图像编辑网站,可用于去水印背景,网址为。 6. Palette.fm:图像编辑网站,在提升分辨率方面表现出色,网址是。 7. AI 抠图 pixian.ai:图像编辑网站,网址为。 8. 。 9. 美图设计室:图像编辑网站,网址为。 10. Facetune:图像编辑网站,网址为。 此外,还有以下在图像编辑方面表现较好的网站: 1. Remove.bg:图像编辑网站,4 月访问量为 5870 万次,网址未知。 2. Fotor:图像编辑网站,4 月访问量为 1477 万次,网址未知。 3. Photoroom:图像编辑网站,4 月访问量为 1260 万次,网址未知。 4. Pixlr:图像编辑网站,4 月访问量为 1210 万次,网址未知。 5. PicWish:图像编辑网站,4 月访问量为 713 万次,网址未知。 6. QuickTools by Picsart:图像编辑网站,4 月访问量为 417 万次,网址未知。 7. WatermarkRemover.io:图像编辑网站,4 月访问量为 399 万次,网址未知。 8. Clipdrop:图像编辑网站,4 月访问量为 335 万次,网址未知。 9. Cleanup.pictures:图像编辑网站,4 月访问量为 192 万次,网址未知。 10. Magic Studio:图像编辑网站,4 月访问量为 127 万次,网址未知。 11. Luminar Neo:图像编辑网站,4 月访问量为 126 万次,网址未知。 12. magnific.ai:图像编辑网站,4 月访问量为 111 万次,网址未知。 13. PhotoAiD:图像编辑网站,4 月访问量为 106 万次,网址未知。
2025-03-13