Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

flux-dev提示词

Answer

以下是关于 ComfyUI Flux-dev 提示词的相关信息:

  • Redux 模型:是轻量级模型,可与 Flux.1[Dev]和 Flux.1[Schnell]配合使用,基于 1 个输入图像生成图像变体,无需提示,适合快速生成特定样式的图像。若要往一张图上融合,提示词最好描述图片的背景颜色。将 Redux 模型下载到 comfyui/models/style_models,下载 sigclip_patch14-384.safetensors 到 ComfyUI/models/clip_vision。重绘节点可使用 ComfyUI-InpaintEasy,链接为 https://github.com/CY-CHENYUE/ComfyUI-InpaintEasy。
  • 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成以提高效率,采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux)和图像放大和细化(SDXL),各阶段涉及不同的模型加载、处理和预览步骤。
  • 模型的安装部署:FLUX.1[dev]、FLUX.1[dev fp8]、FLUX.1[schnell]中建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹。若爆显存,可在“UNET 加载器”节点中的 weight_dtype 设置为 fp8 降低显存使用量,但可能稍降质量。t5xxl_fp16.safetensors 和 clip_l.safetensors 放在 ComfyUI/models/clip/文件夹,可使用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率,超过 32GB 内存建议使用 fp16。Vae 下载后放入 ComfyUI/models/vae 文件夹。T5(/t5xxl_fp16.safetensors)的 clip 原本有输入输出,可能导致提示词被吞,短提示效果差,训练 flux 或 sd3 时应尽量用长提示词或自然语言。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI Flux redux

Redux模型是一个轻量级模型,可与Flux.1[Dev]和Flux.1[Schnell]配合使用,以基于1个输入图像生成图像变体,无需提示。它非常适合快速生成特定样式的图像。[heading3]移除背景[heading3]关于提示词[content]这里需要注意的是,如果要往一张图上融合,提示词最好描述下图片的背景颜色。[heading3]Redux模型位置[content]将Redux模型下载到comfyui/models/style_models下载sigclip_patch14-384.safetensors到ComfyUI/models/clip_vision[heading3]重绘节点[content]ComfyUI-InpaintEasyhttps://github.com/CY-CHENYUE/ComfyUI-InpaintEasy[heading3]工作流

ComfyUI FLUX低显存运行

这个方法的目的是让FLUX模型能在较低的显存情况下也能运行.分阶段处理的思路:1.使用Flux模型进行初始生成,在较低分辨率下工作以提高效率2.采用两阶段处理:先用Flux生成,后用SDXL放大,效控制显存的使用3.使用SD放大提升图片质量工作流的流程:初始图像生成(Flux):UNETLoader:加载flux1-dev.sft模型DualCLIPLoader:加载t5xxl和clip_l模型VAELoader:加载flux-ae.sftCLIPTextEncode:处理输入提示词BasicGuider和RandomNoise:生成初始噪声和引导SamplerCustomAdvanced:使用Flux模型生成初始图像VAEDecode:解码生成的潜在图像初始图像预览:PreviewImage:显示Flux生成的初始图像图像放大和细化(SDXL):CheckpointLoaderSimple:加载SDXL模型(fenrisxl_SDXLLightning.safetensors)UpscaleModelLoader:加载RealESRGAN_x4.pth用于放大VAELoader:加载sdxl_vae.safetensorsImageSharpen:对初始图像进行锐化处理UltimateSDUpscale:使用SDXL模型和放大模型进行最终的放大和细化最终图像预览:PreviewImage:显示最终放大和细化后的图像

ComfyUI FLUX

FLUX.1[dev]FLUX.1[dev fp8]FLUX.1[schnell],选一个.建议选择dev版本的,显卡可以的用fp16,显卡不够用的选fp8.模型下载后,放入,这个文件应该放在你的:ComfyUI/models/unet/文件夹中。如果爆显存了,“UNET加载器”节点中的weight_dtype可以控制模型中权重使用的数据类型,设置为fp8,这将使显存使用量降低一半,但可能会稍微降低质量.默认下的weight_type,显存使用比较大.[heading4]clip[content]t5xxl_fp16.safetensors和clip_l.safetensors,放在ComfyUI/models/clip/文件夹里面.https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main可以使用t5xxl_fp8_e4m3fn.safetensors来降低内存使用率,但是如果你有超过32GB内存,建议使用fp16[heading4]Vae[content]下载后,放入ComfyUI/models/vae文件夹https://huggingface.co/black-forest-labs/FLUX.1-schnell/tree/main[heading3][heading3]T5(/t5xxl_fp16.safetensors)的这个clip,[content]原本是有一个输入输出的。就是有一半是应该空着的。会导致提示词被吞的情况,就是可能会有一半的提示词被吞掉了。所以短提示的效果会比较差。我们在训练flux或者sd3时候,应该尽量的去用长提示词或者自然语言。不要用短提示词。因为T5自带了50%的删标。

Others are asking
我想用AI完成一个编程项目,帮我从零到一完成一个个人介绍网站,我现在使用vo.dev完成了一个网站,但是不可以供我使用我上传github后再vercel运行发现会出现404请问我该怎么办
很抱歉,暂时没有关于您所描述问题的相关内容。出现 404 错误通常是由于页面未找到导致的。您可以先检查一下以下几个方面: 1. 确认您在 GitHub 上的代码上传是否完整且正确,包括相关的配置文件和依赖项。 2. 检查 Vercel 的部署设置,确保配置正确,例如域名绑定、环境变量等。 3. 查看服务器的日志,以获取更详细的错误信息,从而确定问题的具体原因。 希望这些建议能对您有所帮助,如果问题仍未解决,建议您进一步查阅相关的技术文档或向技术社区寻求帮助。
2024-12-19
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora ,放到:comfyUI\\models\\loras 。 3. 百度网盘分享的 flux1depthdevlora.safetensors : 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2024-12-17
NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37. If you want to use th
您好,出现“NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37.”这种情况,意味着您所使用的 NVIDIA 显卡的 CUDA 计算能力(sm_120)与当前安装的 PyTorch 版本不兼容。当前安装的 PyTorch 支持的 CUDA 计算能力为 sm_37 至 sm_90 以及 compute_37 。您可能需要重新安装与您显卡 CUDA 计算能力相匹配的 PyTorch 版本,或者升级您的显卡驱动程序来解决此兼容性问题。
2024-11-30
在comyui中,使用flux1-dev模型24g显存够吗
在 ComfyUI 中使用 Flux1dev 模型,24G 显存是可以的,但建议内存尽量高于 32G 以避免意外情况的发生。如果您的显卡是 24G 或更高,右键 24G 那个 train_flux_24GLora 的文件。修改脚本路径和参数时,要注意底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径的正确填写。ae.safetensors 和 flux1dev.safetensors 的下载地址为:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ,百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。最后下载 dev 的工作流: ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI 把工作流或图片拖拽到其中即可。
2024-11-12
在comyui中,使用flux1-dev模型需要多少显存
在 ComfyUI 中使用 flux1dev 模型所需的显存情况如下: 相关模型的下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址为:https://huggingface.co/Kijai/fluxfp8/tree/main 。 低显存方案(8G 以下):flux1devbnbnf4.safetensors ,放入 ComfyUI\\models\\checkpoints 文件夹内,下载链接为 https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors 。 此外,还提供了以下相关资源链接: BitsandBytes Guidelines and Flux :https://github.com/lllyasviel/stablediffusionwebuiforge/discussions/981 ComfyUI_bitsandbytes_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
2024-11-12
OpenDevin是什么?
OpenDevin 是一个开源项目,旨在复制并增强一款名为 Devin 的自主 AI 软件工程师。Devin 能够执行复杂的工程任务,并与用户在软件开发项目上积极合作。OpenDevin 的目标是探索和拓展 Devin 的能力,找出其优势和改进空间,以指导开源代码模型的进展。该项目目前仍在进行中,但已经可以运行 alpha 版本来查看端到端系统的运行情况。 安装 OpenDevin 需要满足一定的系统要求,例如使用 Linux、Mac OS 或 Windows 上的 WSL,以及安装 Docker、Python、NodeJS 和 Poetry 等依赖项。安装完成后,您可以配置语言模型,并运行应用程序。 OpenDevin 的主要特点包括: 用户界面(UI):开发用户友好的界面,包括聊天界面、演示命令的 shell 和 Web 浏览器。 架构:构建一个稳定的代理框架,具有强大的后端,可以读取、写入和运行简单的命令。 代理能力:增强代理的能力,以生成 bash 脚本、运行测试和执行其他软件工程任务。 评估:建立一个与 Devin 评估标准一致的最小评估流水线。 OpenDevin 目前仍在开发中,并且可能需要解决一些技术问题,如请求速率限制等。不过,它为软件开发提供了新的可能性,尤其是在利用大型语言模型(LLMs)方面。 更多关于 OpenDevin 的详细信息,可以参考其官方文档和 GitHub 页面。
2024-04-17
flux lora调参数,我训练出来的人物模型和数据集的人物图片不像,出现这种情况的原因都有哪些,应该调整哪些参数,我需要我的flux模型训练出来的模型是一致性还原性,和泛化性比较不错的,按照这个方向给我指导
以下是关于 flux lora 调参数以获得一致性、还原性和泛化性较好的人物模型的指导: 打标环节: 选择基础大模型,如“麦橘写实”,并为 lora 命名。 将照片导入,选择合适分辨率,可勾选“脸部加强训练”,然后进行预处理。手动裁剪图片比自动裁剪更可靠。 预处理后会出现脸部和整体文件夹,且每张照片自动打好 tag 标签。 可为整体添加统一标签,也可单独修改每张图片的标签。标签有助于 AI 理解图片,描述越详细,人物变化可能越多,泛化性可能越好。仔细检查每张图片的标签,其质量会影响人物 lora 的泛化性。 参数调整环节: 大部分参数是固定的,主要的几个按照人物参数配置一遍。后期根据生成结果再调整。 炼丹环节: 例如 18 张脸部图片,20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1。训练总步数和时长会有所不同,loss 值可作为参考,但最终效果仍需通过测试判断。 此外,在 Lora 串联方面,多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层 1 和 2 的效果不同,加 Lora 时某些 Lora 可能更适合 2。Lora 可用于生成底模无法画出的内容。在运行中点击取消可打断正在渲染跑的图。图像放大可通过 up scale image using model 节点,选择放大模型,用 resize 节点调整尺寸,再用编码器和采样器处理。放大模型直接放大的图像效果不佳,需再次采样增加细节。添加飞桨缺失节点可通过拖入工作流查看标红节点,从管理器安装或从 GitHub 获取节点包放入文件管理系统。采样器和调度器参数设置建议参考模型作者推荐,并结合自己调试。Web UI 中 Lora 库有刷新按钮,将 Lora 丢到文件夹后多点几次刷新即可。
2025-01-04
flux lora训练指南
以下是关于 Flux 的 Lora 模型训练的指南: 准备工作: 需要下载以下模型: t5xxl_fp16.safetensors clip_l.safetensors ae.safetensors flux1dev.safetensors 注意事项: 1. 不使用的话,模型放置位置不限,但要清楚其“路径”,后续会引用到。 2. 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 修改脚本路径和参数: 如果显卡是 16G,右键 16G 的 train_flux_16GLora 文件;如果显卡是 24G 或更高,右键 24G 的 train_flux_24GLora 文件。(DB 全参微调对硬件要求高,内存 32G 可能不行。即使是 train_flux_24GLora 方式,也建议内存高于 32G 以避免意外。) 右键用代码编辑器打开文件,理论上只需修改红色部分:底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径。如果 4 件套在一个文件夹,路径填写更简单;若不在,需准确复制各模型的路径,注意检查格式,避免多双引号、漏双引号或路径错误。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以包含图片+标签 txt,也可以只有图片(之后可在 c 站使用自动打标功能),也可一张一张单独上传照片,但建议提前将图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 后等待一段时间,确认创建数据集,返回到上一个页面,等待上传成功后可点击详情检查,能预览到数据集的图片以及对应的标签。 Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。选择数据集,点击右侧箭头选择上传过的数据集。触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词可随机抽取数据集中的一个标签填入。训练参数可调节重复次数与训练轮数,若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。可按需求选择是否加速,点击开始训练,会显示所需消耗的算力,然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有生图,点击会自动跳转到使用此 lora 生图的界面,点击下方的下载按钮则会自动下载到本地。
2025-01-04
flux模型风格提示词
以下是关于 Flux 模型风格提示词的相关信息: ComfyUI Flux redux: Redux 模型是轻量级的,可与 Flux.1配合使用,基于 1 个输入图像生成图像变体,无需提示,适合快速生成特定样式图像。 往一张图上融合时,提示词最好描述图片背景颜色。 将 Redux 模型下载到 comfyui/models/style_models,下载 sigclip_patch14384.safetensors 到 ComfyUI/models/clip_vision。 重绘节点为 ComfyUIInpaintEasy,相关链接:https://github.com/CYCHENYUE/ComfyUIInpaintEasy。 ComfyUI FLUX 模型的安装部署: 模型 FLUX.1中,建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8。模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量,默认的 weight_type 显存使用较大。 clip 方面,t5xxl_fp16.safetensors 和 clip_l.safetensors 放在 ComfyUI/models/clip/文件夹里,相关链接:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main。可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率,有超过 32GB 内存建议用 fp16。 Vae 下载后放入 ComfyUI/models/vae 文件夹,相关链接:https://huggingface.co/blackforestlabs/FLUX.1schnell/tree/main。 T5(/t5xxl_fp16.safetensors)的 clip 原本有输入输出,可能会导致提示词被吞,短提示效果差,训练 flux 或 sd3 时应尽量用长提示词或自然语言。 STYLE PROMPTS 风格: Stratospheric:关联流派为 Soundtrack、Classical、Orchestral。指高空和极高的音乐风格,具有高亢壮丽特质,典型用于表现高空和极高情感的音乐作品,示例为 Queen 的《Bohemian Rhapsody》。 Streetwise:关联流派为 HipHop、Rap、R&B。指街头和世故的音乐风格,具有现实机智特质,典型用于表现街头和世故情感的音乐作品,示例为 JayZ 的《Empire State of Mind》。 Strength:关联流派为 Rock、Hard Rock、Arena Rock。指力量和坚强的音乐风格,具有强大坚定特质,典型用于表现力量和坚强情感的音乐作品,示例为 Survivor 的《Eye of the Tiger》。 Stressful:关联流派为 Progressive Rock、Psychedelic Rock、Classic Rock。指紧张和压力的音乐风格,具有紧张焦虑特质,典型用于表现紧张和压力情感的音乐作品,示例为 Pink Floyd 的《Time》。 Stretching:指延伸和扩展的音乐风格,具有延展渐进特质,典型用于表现延伸和扩展情感的音乐作品。
2025-01-03
我想问 有没有可以帮忙写 flux 或者其他图像模型 prompt 的 system prompt 模板
以下是为您整理的相关内容: 关于 FLUX 模型的安装部署: 模型选择:FLUX.1 有 dev、dev fp8、schnell 等版本,建议选择 dev 版本,显卡较好可用 fp16,显卡不够选 fp8。模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,可在“UNET 加载器”节点中将 weight_dtype 设置为 fp8,降低显存使用量,但可能稍降质量。 clip:t5xxl_fp16.safetensors 和 clip_l.safetensors 放在 ComfyUI/models/clip/文件夹里,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率,超过 32GB 内存建议用 fp16。 Vae:下载后放入 ComfyUI/models/vae 文件夹。 关于训练 Midjourney 的 prompt: 训练问题:强大的 DMs 通常消耗数百个 GPU 天,推理由于顺序评估而成本高昂。在有限的计算资源上应用 DMs 于强大的预训练自动编码器的潜在空间中训练,可在不影响质量和灵活性的情况下实现复杂度降低和细节保留的最佳点,显著提高视觉保真度。引入交叉注意力层到模型架构使扩散模型成为强大灵活的生成器,支持文本和边界框等一般条件输入,实现高分辨率卷积合成。 版本:Midjourney 定期发布新模型版本以提高效率、连贯性和质量。最新模型为默认,也可通过version 或v 参数或/settings 命令选择其他版本。V5 模型于 2023 年 3 月 15 日发布,具有更广泛的风格范围、更高的图像质量、更详细的图像等优点。 关于 ComfyUI 图片提示词反推提示词生成: 在 ComfyUI 里使用 MiniCPM 做图片提示词反推与文本提示词生成,可和 flux 模型配合生成图片,建议使用量化版本的模型(int4 结尾)节省显存。 安装方法:进入 ComfyUI 自定义节点目录,克隆相关仓库,重启 ComfyUI。 模型下载:网盘 https://pan.quark.cn/s/00b3b6fcd6ca ,下载后放入 ComfyUI 的 models 文件夹下 MiniCPM 文件夹中,没有就新建一个。
2025-01-02
flux lora训练
以下是关于 Flux 的 Lora 模型训练的相关内容: 模型准备: 需下载以下模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置不限,只要知晓路径即可。训练建议使用 flux1dev.safetensors 和 t5xxl_fp16.safetensors 版本。 下载训练脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 数据集准备: 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。可以提前将图片和标签打包成 zip 上传,也可一张一张单独上传照片。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 后等待一段时间,确认创建数据集,返回到上一个页面等待上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头选择上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词随机抽取数据集中的一个标签填入。 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数。若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。可按需求选择是否加速,点击开始训练,会显示所需消耗的算力,然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有生图,点击会自动跳转到使用此 lora 生图的界面,点击下方下载按钮可自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train ,红色文件夹内。若未准备数据集,此路径内有试验数据集可直接使用。 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:若有 ComfyUI 基础,在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点即可,自行选择 Lora 和调节参数。
2024-12-27
flux和sdXL出图的区别
Flux 和 SDXL 出图主要有以下区别: 1. 生成人物外观:Flux 存在女生脸油光满面、下巴等相同外观问题,而 SDXL 相对在这方面有改进。 2. 模型构成:SDXL 由 base 基础模型和 refiner 优化模型两个模型构成,能更有针对性地优化出图质量;Flux 中 Dev/Schnell 是从专业版中提取出来,导致多样性丧失。 3. 处理方式:在低显存运行时,可采用先使用 Flux 模型进行初始生成,再用 SDXL 放大的分阶段处理方式,有效控制显存使用。 4. 模型参数和分辨率:SDXL 的 base 模型参数数量为 35 亿,refiner 模型参数数量为 66 亿,总容量达 13G 之多,基于 10241024 的图片进行训练,可直接生成 1000 分辨率以上的图片,拥有更清晰的图像和更丰富的细节;而 Flux 在这方面相对较弱。
2024-12-20
与AI沟通的提示词技巧
以下是关于与 AI 沟通的提示词技巧的总结: 1. 输入是写好提示词的根本:输入包括读书、交流、旅游等各种与世界的交互,要善于抓住有价值的输入并思考。 2. 清晰表达提示词可借助框架:由于无法直接将脑海中的东西完整传达给大模型,所以需要借助预置多个角度的框架来描述。 3. 文科生和学哲学的人写提示词有优势:文科生对文字细微差异敏感,学哲学的人对词的压缩语义和思考深度有优势。 4. 利用框架清晰表达脑海中的想法与大模型交流:将脑海中的事情或方法论通过框架从不同角度描述,能比空想更高效,且框架角度可根据任务调整。 5. 约束大模型按指定角度输出:通过设定角色、目标、风格、规则等,可约束大模型按照约定的视角输出想要的结果。 6. 从 0 到 1 上手的封装方法:当脑海中有清晰的知识方法论,想与大模型对话,需思考如何封装,探讨是否存在通用的核心方法。 7. 提示词写作的三板斧技巧: 分配角色:让大模型以特定身份的行为模式做事,注入的角色信息是超级浓缩的,若角色不明确需解压缩塑造,使其符合大模型的工作机制。 给出示例:当脑海中对要表达的意向模糊时,可通过给出示例辅助描述,将想法概要或详细描述与示例结合,能让大模型输出更好的结果。 8. 在豆瓣模型中自定义提示词的使用技巧: COT 在分析中的作用:让模型一步步思考,拆解逻辑,增加信息量,实现逻辑推理。 学生写提示词的建议:从三个技巧开始从 0 到 1 练习,并辅助学习相关材料。 豆瓣模型的默认功能与自定义:有默认功能,若想定制自己想要的功能,可通过右下角下拉的自定义添加技能,命名并填写提示词。 避免身份冲突的取巧办法:为避免定义身份与系统内在设定冲突,可将身份设定为名人的身边人。 9. 一些具体的 Prompt 技巧: 类比:要求 AI 用类比或示例阐明概念。 引述:要求包含专家的相关引言或陈述。 幽默:表明是否应融入幽默。 轶事:要求包含相关轶事。 隐喻:鼓励使用隐喻使复杂观点更具亲和力。 趣闻:鼓励包含有趣或令人惊讶的事实。 关键词:列出需要包含的重要关键词或短语。 小贴士:鼓励 AI 分享与主题相关的小窍门和技巧。 保密性:说明保密要求或限制。 格式化:指定所需的格式元素。
2025-01-05
为一张3层建筑渲染里面效果,请为我提供相关的提示词
以下是为您提供的 3 层建筑渲染效果的相关提示词: 视角:LowAngle(仰视)、3d isometric blueprint(3D 等轴测蓝图)、3D isometric model(3D 等轴测模型) 介质:abstract expressionist art style(抽象表现主义艺术风格) 镜头:superresolution microscopy(超分辨率显微镜) 灯光:ambient lighting(环境照明)、overhead lighting(头顶照明) 颜色:white(白色)、darkbrown(深棕色) 描述:classical realism(古典现实主义) 艺术家:Kazimir Malevich(卡齐米尔·马列维奇) 电影:2001 A Space Odyssey(2001 太空漫游)、Fantasia(幻想曲) 游戏:Age of Empires(帝国时代)、EarthBound(地球之旅) 画面精度:high detail(高细节)、hyper quality(高品质)、high resolution(高分辨率)、FHD,1080P,2K,4K18K 全高清.1080P,2K,4K,8K、8k smooth 8 流畅 渲染效果:Unreal Engine(虚幻引擎)、octane render(渲染器)、Maxon Cinema 4D 渲染器、architectural visualisation(建筑渲染)、Corona Render(室内渲染)、Quixel Megascans Render(真实感)、VRay V 射线、Behance、C4D、3D、blender、surreal photography(超现实摄影)、realistic 3D(真实 3D)、zbrush
2025-01-05
我需要用AI画一幅清晨的,早晨的画,请给我一些提示,或者这个提示词
以下是一些用于绘制清晨场景的 AI 绘画提示词: 早晨的阳光洒在长城上,露出一线光辉。提示词:A photographic capture of the Great Wall in the morning light, adorned with red lanterns for the Spring Festival, revealing a gleam along its path. From a distant view, slowly zooming in to unveil its grandeur and festive spirit. Created Using: vibrant reds, traditional lanterns, early morning light, detailed texture of the wall, historical ambiance, wideangle lens, cinematic zoom, festive atmosphere ar 16:9 v 6.0 市民在公园里晨练,老人太极,孩子们在跑步。提示词:A lively park scene at dawn with citizens practicing Tai Chi and children running, all amidst Spring Festival decorations like red lanterns and paper cuttings. Medium shot with a horizontal pan to capture the energetic and festive atmosphere. Created Using: natural daylight, festive decorations, diverse age groups, motion blur for movement, community spirit, green park background with red accents, candid expressions, lively festive atmosphere ar 16:9 v 6.0 场景提示词:In the morning mist(在晨雪中)、full of sunlight(充满阳光) 此外,还有一些常见的与清晨相关的场景提示词,如:classroom(教室)、forest(森林)、ruins(废墟)、city(城市)、street scenery(街景)、meadow(草原草地)等。您可以根据自己的具体需求和创意,对这些提示词进行组合和调整。
2025-01-04
论文写作提示词
以下是关于论文写作提示词的相关内容: 一、学术场景数据处理 1. 论文内容总结 大模型结合有效的提示词可迅速总结概括文档,节省时间。例如 GLM4Plus 结合良好的提示词能帮助学生快速总结论文内容,提高梳理效率。 总结示例: 2. 论文内容翻译 大模型可弥补翻译软件的不足,帮助学生更快更好地理解原文。例如 GLM 结合良好的提示词能快速翻译论文内容,提高阅读效率。 翻译示例: 3. 论文内容扩写润色 可将论文内容转化为社交媒体的科普内容,将复杂学术知识普及化。精心设计的润色提示词能根据特定场景调整,生成多样化润色结果。例如针对小红书的使用场景,调整提示词以匹配其口语化、轻松愉快的氛围,将论文中的结论部分润色成适合分享的生活化内容。 润色示例(小红书科普): 二、Prompt 技巧 1. 敏感性:提及需要谨慎处理或避免的敏感主题或问题。例如:请谨慎讨论涉及宗教信仰的问题。 2. 伦理考虑:提及要遵循的道德准则。例如:在讨论基因编辑技术时,探讨伦理和道德问题。 3. 修订要求:提及修订或编辑指南。例如:请根据 MLA 格式对这篇文章进行编辑和修订。 4. 未来影响:鼓励讨论潜在的未来影响或趋势。例如:在谈论虚拟现实技术时,探讨其未来在教育领域的应用前景。 5. 视觉元素:询问是否包括图表、图形或图像。例如:请在关于人口老龄化的报告中包含相关的图表。 6. 截止日期:提及时间敏感回应的截止日期或时间范围。例如:请在明天中午前给我一篇关于节能措施的文章。 7. 文化参考:鼓励包含相关的文化参考。例如:在关于法国美食的文章中谈论法国的餐桌礼仪。 8. 类比:要求 AI 用类比或示例阐明概念。例如:请用一个类比解释黑洞的概念。 9. 引述:要求包含专家的相关引言或陈述。例如:在关于疫苗安全的文章中引用著名免疫学家的观点。 10. 幽默:表明是否应融入幽默。例如:在一篇关于减压方法的文章中加入一些幽默元素。 11. 轶事:要求包含相关轶事。例如:在关于跑步的文章中,分享一则有趣的关于马拉松选手的轶事。 12. 隐喻:鼓励使用隐喻使复杂观点更具亲和力。例如:在讨论人工智能的复杂性时,用“AI 像洋葱一样有很多层次”这样的隐喻。 13. 趣闻:鼓励包含有趣或令人惊讶的事实。例如:在谈论巧克力时,分享一些有趣的巧克力制作过程的事实。 14. 关键词:列出需要包含的重要关键词或短语。例如:请在回答中包含“可再生能源”和“碳足迹”。 15. 小贴士:鼓励 AI 分享与主题相关的小窍门和技巧。例如:分享几个关于照顾室内植物的小贴士。 16. 保密性:说明保密要求或限制。例如:在回答关于保险方案的问题时,不要泄露客户的个人信息。 17. 格式化:指定所需的格式元素(如标题、副标题、列表)。例如:在写关于节能设备的文章时,使用列表来呈现节能设备的种类。
2025-01-04
金融分析提示词
以下是关于金融分析提示词的相关内容: 在提示词技巧方面,包括敏感性(提及需要谨慎处理或避免的敏感主题或问题,如请谨慎讨论涉及宗教信仰的问题)、伦理考虑(提及要遵循的道德准则,如在讨论基因编辑技术时,探讨伦理和道德问题)、修订要求(提及修订或编辑指南,如请根据 MLA 格式对这篇文章进行编辑和修订)、未来影响(鼓励讨论潜在的未来影响或趋势,如在谈论虚拟现实技术时,探讨其未来在教育领域的应用前景)、视觉元素(询问是否包括图表、图形或图像,如请在关于人口老龄化的报告中包含相关的图表)、截止日期(提及时间敏感回应的截止日期或时间范围,如请在明天中午前给我一篇关于节能措施的文章)、文化参考(鼓励包含相关的文化参考,如在关于法国美食的文章中谈论法国的餐桌礼仪)。 在商业类提示词方面,以行业分析专家李继刚为例,其擅长用费曼讲解法,以通俗的语言解释公司所在行业的基本术语、行业规模、生命周期、发展历史、盈利模式、供应商、用户群体、竞争格局和监管政策。 在 Prompt 之道的清晰表达方面,要输出好的结果首先得有输入。比如写商业分析的 Prompt,如果没有读过相关书籍,就难以进入内核,输入的质量决定了输出的效果。编程界有“garbage in,garbage out”的说法,如果输入没有信息量,输出也会很平庸。要让大模型输出惊艳的结果,需要先有优质的输入,脑海里要有相关概念,而这概念来自于输入。
2025-01-04
工作流调用的提示词
以下是关于工作流调用的相关内容: 在百炼相关的问题中: 存在提示词让大模型调用工作流但实际未调用,且文档未写明调用方式的情况。 探讨了如何把开始节点的输入参数接入到代码节点中进行处理。 提到千问模型处理标点符号的问题,如在提示词要求句尾不要有句号但仍出现,以及在工作流中处理后回到应用中又加上标点符号,而同样的提示词在扣子中可以去掉标点符号。 询问规定模型不能用搜索和投喂输出文本,比赛是否只限在提示词调试范围内。 对同样的问题给出答案区别大的情况进行了讨论。 存在无论 prompt 怎么变,模型生成完内容后自动被“不生成任何标点符号”所替换的情况。 询问 COW 调用百炼应用是否支持多轮对话。 在安仔:Coze 全方位入门剖析中: 工作流是整个 AI Bot 的核心和灵魂部分。 开始节点定义了用户传入赋值的变量及变量描述,该描述就是工作流的提示词,当用户输入相关关键词如“查询航班”“查询机票”“查询航班信息”等,AI Bot 会调用工作流。 第二步通过大模型组件解析用户输入信息是否满足提示词条件,借助大模型组件可实现动态用户需求传入。 接着是条件判断,包括不满足条件时的处理方式。 在 ComfyUI JoyCaption 相关中: 整体工作流程包括用户输入图片、视觉模型提取关键特征、适配器转换特征为语言模型可理解形式、语言模型生成文本描述、系统输出最终图像描述文本。 工作流中分别使用了 JoyCaption、MiniCPM、ollama,也可只使用一个,但同时使用需要较高显存。 JoyCaption 出来的提示词有截断,解决办法是在开头加上“: ”和空格。
2025-01-04