Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ComfyUI-WD14模型

Answer

以下是关于 ComfyUI-WD14 模型的相关信息:

  • 安装 Tagger 模型失败的解决方法:下载下面这 2 个反推模型与对应的词库列表,然后放进 ComfyUI\custom_nodes\ComfyUI-WD14-Tagger\models 文件夹内。Hugginface 下载地址:https://huggingface.co/SmilingWolf/wd-v1-4-moat-tagger-v2/tree/main(下载 onnx 模型文件与 csv 文件,然后改为对应模型名:wd-v1-4-moat-tagger-v2)。网盘下载地址:度盘:pan.baidu.com/s/1d9XLF96OzWlLtUGvZiYdVA?pwd=nely,Quark:pan.quark.cn/s/ff8172bebe27。重启后,在 Tagger 的模型列表里选择 wd-v1-4-moat-tagger-v2 即可。
  • Comfyui SD 学社做一个黏土头像的图生图中需要用到的插件:
    • 提示词反推 WD14-Tagger:https://github.com/pythongosss/ComfyUl-WD14-Tagger 首次使用会自动下载模型(需要网络环境)。
    • 处理人物一致性:IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus。也可以用 instantID,这里使用的是 IPadpter,后续很多地方也会用到,建议大家也可以先用起来。关于 IPAdapter 的使用,之前有写了一篇文章介绍,不熟悉的小伙伴可以先看下。因为作者新版本重写了代码,所以新版一定注意模型的放置位置,这样后续使用统一加载,会方便不少。
    • ControlNet:预处理的插件 comfyui_controlnet_aux https://github.com/Fannovel16/comfyui_controlnet_aux,ControlNet 模型 XL-CN 模型下载:https://huggingface.co/lllyasviel/sd_control_collection/tree/main,1.5 理模型下载:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main。Controlnet 不熟悉的小伙伴,同样也可以看之前写的一篇文章,快速上手。
  • 直接在 Comfy UI 中训练 LoRA 模型:制作字幕时禁用 LoRA 训练节点,原因是 Comfy 可能会在制作字幕之前启动训练。最好保险起见:在制作字幕时绕过训练节点,然后启用它,再次启动工作流程进行训练。可以在训练之前打开字幕并手动编辑它们。训练会在 log 文件夹中创建一个日志文件,该文件夹会在 Comfy 的根文件夹中创建,认为该日志是一个可以在 Tensorboard UI 中加载的文件,但很想让数据出现在 ComfyUI 中。
Content generated by AI large model, please carefully verify (powered by aily)

References

Nenly:第2课:自定义节点的安装与运用

下载下面这2个反推模型与对应的词库列表,然后放进ComfyUI\custom_nodes\ComfyUI-WD14-Tagger\models文件夹内。Hugginface下载地址:https://huggingface.co/SmilingWolf/wd-v1-4-moat-tagger-v2/tree/main(下载onnx模型文件与csv文件,然后改为对应模型名:wd-v1-4-moat-tagger-v2)网盘下载地址:(已经改好名了)度盘:pan.baidu.com/s/1d9XLF96OzWlLtUGvZiYdVA?pwd=nelyQuark:pan.quark.cn/s/ff8172bebe27重启后,在Tagger的模型列表里选择wd-v1-4-moat-tagger-v2即可。

Comfyui SD 学社 做一个黏土头像

需要用到的插件如果提示缺失节点,就通过管理器安装一下.1.提示词反推WD14-Taggerhttps://github.com/pythongosss/ComfyUl-WD14-Tagger首次使用会自动下载模型(需要网络环境)1.处理人物一致性IPAdapter:https://github.com/cubiq/ComfyUI_IPAdapter_plus也可以用instantID,这里我们使用的是IPadpter,后续很多地方也会用到,建议大家也可以先用起来关于IPAdapter的使用,之前有写了一篇文章介绍,不熟悉的小伙伴可以先看下.因为作者新版本重写了代码,所以新版一定注意模型的放置位置,这样后续使用统一加载,会方便不少.1.controlNet预处理的插件comfyui_controlnet_aux https://github.com/Fannovel16/comfyui_controlnet_auxcontrolNet模型XL-CN模型下载:https://huggingface.co/lllyasviel/sd_control_collection/tree/main1.5理模型下载:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/maincontrolnet不熟悉的小伙伴,同样也可以看之前写的一篇文章,快速上手.

直接在Comfy UI中训练LoRA模型

然而,请确保在制作字幕时禁用LoRA训练节点。原因是Comfy可能会在制作字幕之前启动训练。而它会这么做。它不关心是否有字幕存在。所以最好保险起见:在制作字幕时绕过训练节点,然后启用它,再次启动工作流程进行训练。我本可以找到一种方法将训练节点与保存节点关联起来,确保在制作字幕后才进行训练。然而,我决定不这样做。因为即使WD14标签非常出色,你可能还想在训练之前打开字幕并手动编辑它们。在两个节点之间创建链接将使整个过程变得自动化,而不让我们有机会修改字幕。寻求对Tensorboard的帮助!:)字幕,训练...还有一个遗漏的部分。如果你了解LoRA,你应该听说过Tensorboard。这是一个用于分析模型训练数据的系统。我很乐意将其包含在ComfyUI中。...但我完全不知道该怎么做^^’。目前,训练会在log文件夹中创建一个日志文件,该文件夹会在Comfy的根文件夹中创建。我认为该日志是一个我们可以在Tensorboard UI中加载的文件。但我很想让数据出现在ComfyUI中。有人能帮我吗?谢谢^^。我的第一个LoRA的结果:如果你不认识这个角色,那是来自《宝可梦钻石与珍珠》的小光(Hikari)。具体来说,是她在大祭典中的形象。在网上查看图片以比较结果:

Others are asking
秋叶comfyui安装包
以下是关于秋叶 ComfyUI 安装包的相关信息: 秋叶整合包:通过网盘分享,链接为 https://pan.baidu.com/s/18hSRDLgxm5N0ZHtuRQLrAQ?pwd=6666 ,提取码: 6666 。 麦橘老师模型:通过网盘分享,链接为 https://pan.baidu.com/s/14Z6KohbJ1TxlI7bJ7wg?pwd=6666 ,提取码: 6666 ,模型存放路径为 ComfyUIakiv1.3\\models\\checkpoints 。 提示词在线地址:https://www.liblib.art/modelinfo/bced6d7ec1460ac7b923fc5bc95c4540?from=search 。 通往 AGI 之路天命人整合包:通过网盘分享,链接为 https://pan.baidu.com/s/14OD0Fcfmd58eOS7qZPVPQ?pwd=6666 ,提取码: 6666 。 二狗子老师黑猴子流原理:【ComfyUI 开源社区共学天命人黑猴子(黑神话悟空)工作流讲解】https://www.bilibili.com/video/BV1agWaefENA/?share_source=copy_web&vd_source=08f1807fea192b97f4e9389bd8eaa1eb 。 更多课程欢迎来 waitoagi 社区一起共学:https://waytoagi.feishu.cn/wiki/QxIBwmsWQiEbz3kHii1cFu6XnBc 。 ComfyUI 的本地部署: 下载 github 链接:https://github.com/comfyanonymous/ComfyUIinstalling ,也可以去作者的网盘里下载一键启动压缩包。 下载完后,将文件解压到一个没有中文的路径下。 安装过程中的代码操作: I:\\ComfyUIaki\\python\\python.exe m pip install huggingface_hub U 。 过程中若有爆红部分让更新对应包到指定版本或“>=”的版本,可通过 pip install 包名==x.x.x(版本号)操作。 例如:I:\\ComfyUIaki\\python\\python.exe m pip install gradio==3.23 。 依次安装更新这些包完成后,再次执行 I:\\ComfyUIaki\\python\\python.exe m pip install huggingface_hub U ,即可重启。
2025-03-04
comfyui flux 模特换衣服 的新手 教程
以下是关于 ComfyUI Flux 模特换衣服的新手教程: 工作流整体思路: 1. 生成适合服装的模特: 可以抽卡,抽到满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级需注意(1=27×27 最强,14=1×1 最弱)。 2. 进行高精度的换装: 先进行预处理的工作,拼出来 mask。 重绘 mask 区域。 工作流解释: 1. 模特生成: 先生成与衣服匹配的模特,先不关注衣服的相似度,抽出满意的模特。 2. 服装高精度处理: mask 的处理:做两个工作,将模特身上的衣服分割出来,拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装教程: 1. 在扩展面板中使用网址安装 Segment Anything,guthub 地址:https://github.com/continuerevolution/sdwebuisegmentanything 。重启之后安装 SAM 模型。 2. 在 github 上有三个 SAM 模型,由大到小分别是 vit_h,可根据情况选择,大部分选 vit_l 。将下载好的 SAM 模型放在指定路径。 3. 测试 SAM 模型效果,左键点击要保留的部分打上黑点,右键点击不要的部分打上红点,双击不需要的点可移除。 4. 预览分离结果,选择合适的蒙版进行服装替换等操作。 点开“展开蒙版设置”,设定蒙版扩展量,建议 30,然后点击发送到“重绘蒙版”。 5. 换衣步骤:在图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 6. 若出现衔接问题,可通过降低重绘幅度或添加 openpose 控制人物身体姿势。还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,自行试验选择效果好的。
2025-03-04
comfyui tile放大
以下是关于 ComfyUI tile 放大的相关内容: 文生图工作流搭建:先左键点住 CLIP 黄点向外拖,再拖出两个 CLIP 编码器,从条件处拉出采样器,连接正负提示词和模型,还需 VE 解码器和 VE 模型,若模型无 VAE 则需加载器。 浅空间图像放大:从第一个采样器向右拉,点击按系数缩放将 later 调成 2 倍,复制采样器、VE 解码器并连接处理过的 later。 Confii 图像放大操作:从第一个采样器开始,通过一系列操作如添加 Latin 节点、连接提示词和模型、连接 VE 解码器等,并设置重绘幅度、缩放系数等参数来实现图像放大。参数设置方面,重绘幅度(降噪)决定图像改变程度,数值越高与原始图像差别越大;缩放系数默认 1.5,可调整为 2。 在 SD 中,可使用 Ultimate SD upscale 插件放大,也可在图生图中进行放大,重绘幅度设置为 0.6。放大时打开 Tiled Diffusion,方案选择 MultiDiffusion,放大算法选择 RESRGAN 4x+Anime6B,放大 2 倍。同时启用 Tiled VAE 和 controlnet 插件的 tile 模型,给图片添加细节。
2025-03-03
win7能安装 ComfyUI吗
Win7 可以安装 ComfyUI,但需要满足一定的硬件要求和进行一系列的环境安装操作。 硬件要求: 1. 系统:Windows 7 以上。 2. 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 3. 硬盘留有足够的空间,最低 100G 起步(包括模型)。 环境安装操作: 1. 下载并更新 Nvidia 显卡驱动,下载地址:https://www.nvidia.cn/geforce/drivers/ 2. 依次下载并安装 Python(https://www.python.org/downloads/release/python3119/ ,安装时选中“将 Python 添加到系统变量”)、Git(https://gitscm.com/download/win )、VSCode(https://code.visualstudio.com/Download ),安装过程中一直点击勾选对应选项,一直下一步。 3. 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 此外,还可能涉及克隆 ComfyUI 仓库、创建 python 虚拟环境、安装 Pytorch 和依赖包等操作。关于部分安装操作,网上有较多教程可供参考。同时,模型权重和工作流的获取也有相应的途径。
2025-03-03
使用AI,comfyui是必学的吗?
ComfyUI 并非是使用 AI 时必学的。但如果您想在 AI 水平上有更高的提升,掌握 ComfyUI 的理论基础是很有帮助的。它在图像、视频等领域有诸多应用和发展,例如在差分算法、年龄渐变和特定内容替换、q 列模型、语言模型的迁移和发展、深度图检测和分层处理等方面具有优势。同时,了解其技术细节如 clip 的 skip 层、scheduler 和 sample 的区别、CFG 等能让您更灵活选择参数。ComfyUI 的生态发展稳定,节点和项目增多,相关大会也在多地举办。此外,其生态外的收费视频软件能用 API 节点接入所有体系,飞书大群方便交流,会同步课件及相关信息。
2025-03-03
comfyUI基础教程
以下是 ComfyUI 的基础教程: KSampler(采样器): seed(随机种子):主要用于控制潜空间的初始噪声。若要重复生成相同图片,需使用此随机种子,且种子和 Prompt 都要相同。 control_after_generate(生成后控制):每次生成完图片,seed 数字会变化,此配置项可设置变化规则,包括 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 step(采样步数):一般步数越大效果越好,但与使用的模型和采样器有关。 cfg:值一般设置在 6 8 之间较好。 sampler_name(采样器名称):可通过此设置采样器算法。 scheduler(调度器):主要控制每个步骤中去噪的过程,可选择不同调度算法,有的每步减去相同数量噪声,有的每步尽可能多去噪。 denoise:表示要增加的初始噪声量,1 表示全部。一般文生图可默认设为 1。 此外,ComfyUI 共学快闪的学习内容还包括: 王蓉🍀🎈Wang Easy 的基础搭建和转绘。 唯有葵花向日晴的基础教程、工作流开发和实际应用场景。 热辣 Huolarr AI 系统课私聊图生视频。 咖菲猫咪的基础教程、工作流搭建思路、各版本模型使用的优缺点。 傅小瑶 Lucky 的如何制作多人转绘视频。 云尚的工作流节点搭建思路。 FǎFá 的热门节点功能和搭建。 森林小羊的基本报错解决方式及基础工作流逻辑分析。 苏小蕊的基础教程。 Sophy 的基础课程。 蜂老六装一百个最新常用插件后如何快速解决冲突问题。 阿苏的工作流框架设计。 aflyrt 的 comfyui 节点设计与开发。 老宋&SD 深度解释虚拟环境部署和缺失模型的安装。 Liguo 的模型训练。 啊乐福的基础课程。 塵的优秀案例。 风信的基础课程和平面设计应用场景。 北南的基础课程。 视频工作流框架设计。 Damon 的基础课程。 渔舟的基础课程和工作流搭建思路。 乔木船长的工作流。 ☘️的基础教程。 工作流设计和典型案例剖析。 麒白掌的工作流搭建。 OutSider 的风格迁移。 吴鹏的基础和工作流搭建。 拾光的工作流基础搭建从入门到精通。 茶浅浅的视频转绘和节点工作流介绍。 百废待.新(早睡版)的工作流从入门到进阶。 电商应用场景。
2025-02-28
大模型稳定输出
大模型在稳定输出方面具有以下特点和相关情况: 在翻译场景中: 突破传统翻译模型局限,大幅提升翻译质量,为广泛应用带来机遇。 能够通过深度上下文分析理解语言真正含义,适应不同语境,避免词不达意和语境脱节,精准捕捉并传达原文意图,尤其在处理隐喻、习语或文化特征文本时表现出色。 生成更流畅、自然且地道的翻译,接近母语水平,保持原文语言风格和情感色彩,更具亲和力和感染力。 具有强大适应性,能根据不同翻译场景灵活调整策略,在多场景翻译中更具灵活性和精准度。 能够深入理解文化内涵,避免因文化差异导致误解或偏差,在专业领域能提供更专业且符合行业标准的翻译结果。 在旅行青蛙智能体搭建过程中: 涉及多个意图分支,如定向旅行、投喂青蛙、在家休息等,每个分支包含多个大模型节点和相关操作。 关于大模型是否具有道德观念: 大型语言模型本身不具有真正的道德观念或意识,它们是通过大量数据训练来模拟语言统计规律的。 但可以被设计用来识别和生成包含道德观念内容的文本。 为确保其输出符合社会道德和伦理标准,采取了多种方法,如数据清洗、算法设计、制定准则、保持透明度、用户反馈、持续监控、人工干预以及教育和培训等。然而,确保 AI 模型的道德和伦理性仍是复杂且持续的挑战,相关标准也在不断演进。
2025-03-04
redux模型
Redux 模型是一个轻量级模型,具有以下特点和应用: 1. 可与 Flux.1配合使用,基于 1 个输入图像生成图像变体,无需提示,适合快速生成特定样式的图像。 2. 位置:将 Redux 模型下载到 comfyui/models/style_models,下载 sigclip_patch14384.safetensors 到 ComfyUI/models/clip_vision。 3. 重绘节点:ComfyUIInpaintEasy,相关链接:https://github.com/CYCHENYUE/ComfyUIInpaintEasy 。 4. 在工作流中的应用: 用于电商服饰行业的换装、虚拟试穿等场景,提升效果并简化工作流。 模特生成:加入 Redux 模型,强度不用太高,让提示词生效(Reduxprompt 节点风格细节等级 1=27×27 最强,14=1×1 最弱)。 服装高精度处理:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服,Redux 权重调整为最大。 FLUX.1 Redux 还适用于所有 FLUX.1 基本模型,用于生成图像变化,给定输入图像能重现具有轻微变化的图像,自然集成到更复杂工作流程中,通过提示解锁图像重新设计。最新型号 FLUX1.1Ultra 支持该功能,允许组合输入图像和文本提示,创建具有灵活宽高比的高质量 4 兆像素输出。
2025-03-04
Joy_caption_two_load模型
Joy_caption_two_load 模型相关信息如下: 下载地址: 模型可从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载,存放文件夹为 Models/LLM/MetaLlama3.18Bbnb4bit 。 网盘链接:https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 ,存放文件夹为 models/Joy_caption 。 此外,还有 MiniCPMv2_6提示生成器+CogFlorence 可从 https://huggingface.co/pzc163/MiniCPMv2_6promptgenerator 和 https://huggingface.co/thwri/CogFlorence2.2Large 下载。 节点安装地址:D:\\ComfyUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 安装步骤: (Comfyui evn python.exe)python m pip install rrequirements.txt 或点击 install_req.bat ,注意 transformers 版本不能太低。 下载模型或者运行 comfyui 自动下载模型到合适文件夹。 模型安装: Joy_caption ,运行自动下载模型(推荐手动下载)。 三个模型(页面显示和实际大小有一定差异): 3.5G,放到:你的\\ComfyUI\\models\\clip\\siglipso400mpatch14384 。 5.7G,放到:你的\\ComfyUI\\models\\LLM\\MetaLlama3.18Bbnb4bit 。 86MB,放到:你的\\ComfyUI\\models\\Joy_caption 。 相关模型介绍: Joy Caption 模型在 SigLIP 和 Llama3.1 的基础之上,使用 Adapter 模式,训练出更好的描述图像的模型,需要与 SigLIP 和 Llama3.1 混合使用,输入图像,输出一段语义丰富的图像描述。 Google 的 SigLIP 是一种改进的多模态模型,类似于 CLIP,但是采用了更优的损失函数。 MetaLlama3.18Bbnb4bit 是优化的多语言大语言模型,基于 Meta 的 Llama 3.1 架构,使用 BitsAndBytes 库进行 4bit 量化,大幅减少内存使用,同时保持模型性能。 模型工作流程: siglipso400mpatch14384(视觉模型): 接收输入图像。 分析图像的视觉内容(如物体、场景、颜色、纹理等)。 将这些视觉信息编码成一组特征向量。 image_adapter.pt(适配器): 接收来自视觉模型的特征向量。 转换和调整这些特征,使其适合语言模型处理。 一些特定任务的优化或微调(如图片到文字)。 MetaLlama3.18Bbnb4bit(语言模型): 接收经过适配器处理的特征。 基于这些特征生成相应的文本描述。 应用语言知识来确保描述的连贯性和准确性。
2025-03-04
小公司, 想部署一个本地ai系统,希望它能够, 对运维, 运营, 客服, 美术, 策划, 程序都能够有很大的帮助, 目前市面上那款 ai 模型比较合适
对于小公司想要部署一个能对运维、运营、客服、美术、策划、程序都有帮助的本地 AI 系统,以下是一些相关信息: 线上和线下本地部署的 AI 特点: 线上部署的优势在于出图速度快,不依赖本地显卡配置,无需下载大型模型,还能参考其他创作者的作品,但出图尺寸受限。线下部署的优势是可添加插件,出图质量高,但使用时电脑可能宕机,配置不高可能爆显存导致出图失败。建议线上用于找参考、测试模型,线下作为主要出图工具。 Ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,支持 CPU 和 GPU。 提供模型库,用户可从中下载不同模型,满足不同需求和硬件条件。 支持自定义模型,可调整参数。 提供 REST API 用于运行和管理模型,以及与其他应用集成。 社区贡献丰富,有多种集成插件和界面。 Google Gemma: 是 Google 发布的家用版小模型,有 2b(20 亿参数)和 7b(70 亿参数)版本。小模型可能不适合复杂任务,但适合提升基础操作效率。部署环境友好,可通过 ollama 方便部署,支持热加载模型文件。2b 反应速度快但互动话题有限,7b 输出质量高但可能卡顿,对非英文语种反馈不稳定。 综合考虑,如果您的公司对出图质量要求较高,且有较好的硬件配置,可以选择线下部署结合线上测试的方式。在语言模型方面,Ollama 具有较多优势,可根据具体需求选择合适的模型进行部署。
2025-03-04
小游戏公司, 想部署一个本地ai系统,希望它能够, 对运维, 运营, 客服, 策划, 程序都能够有很大的帮助, 目前市面上那款 ai 模型比较合适
对于小游戏公司部署本地 AI 系统以帮助运维、运营、客服、策划和程序等方面,以下是一些建议和相关信息: 目前市面上的 AI 模型各有特点。线上 AI 具有出图速度快、不依赖本地显卡配置、无需下载大型模型以及能参考其他创作者作品等优势,但出图尺寸受限。线下部署的 AI 可以添加插件、出图质量高,但可能导致电脑宕机且对配置要求高。 在游戏领域,AI 大模型带来了诸多变化,如游戏内容辅助生成(包括文、图、3D 和音乐),可应用于游戏策划人和美术设计师。文生图和图生图能提高创作效率,动画辅助渲染可改变角色风格,游戏智能运营涵盖智能 NPC 互动、客服、攻略问答和代码脚本生成等,适用于产品经理、运营经理和社区运营经理。 Google 刚刚发布的家用版小模型 Gemma 有 2b(20 亿参数)和 7b(70 亿参数)版本。相对千亿参数的大模型,这类小模型可能不太适合处理复杂任务,但代表了模型本地化提升基础操作效率的趋势。Ollama 是一个开源的大型语言模型服务,方便部署最新版本的 GPT 模型并通过接口使用,支持热加载模型文件,且像小型的 llama 也支持本地部署。部署时,需进入 ollama.com 下载程序并安装,通过命令提示符进行操作和切换模型。2b 反应速度快但互动话题有限,7b 输出质量高但可能卡顿,且对非英文语种反馈不太稳定。 综合考虑,小游戏公司可以根据自身需求和硬件配置选择合适的 AI 模型。如果对出图质量要求高且有较好的硬件配置,可尝试线下部署;若更注重效率和便捷性,线上模型可能更适合。同时,也可以考虑像 Gemma 这样的小模型进行本地化部署以提升基础操作效率。
2025-03-04
小游戏公司, 想部署一个本地ai系统,希望它能够, 对运维, 运营, 客服, 美术, 策划, 程序都能够有很大的帮助, 目前市面上那款 ai 模型比较合适
对于小游戏公司部署本地 AI 系统以帮助运维、运营、客服、美术、策划、程序等方面,以下是一些建议和目前市面上合适的 AI 模型分析: 线上 AI 平台的优势在于出图速度快,对本地显卡配置要求低,无需下载大型模型,还能参考其他创作者的作品,但出图分辨率有限制。 线下部署的优势是可以添加插件,出图质量高,但使用时电脑可能宕机,配置不高还可能爆显存导致出图失败。 综合考虑,建议充分发挥线上和线下平台的优势。线上可用于找参考、测试模型,线下作为主要出图工具。 在图像生成方面,2022 年主流生成式图像应用如 DALLE 2.0、Stable Diffusion 和 Midjourney 使图像生成精细化程度提升,提示对图像生成结果的控制能力增强。 在 3D 模型生成中,AI 能完成 3D 模型生成流程的“一步到位”,大大提升效率。 在游戏开发中,AI 可用于游戏内容辅助生成(如文、图、3D、音乐)、动画辅助渲染、游戏智能运营(包括智能 NPC 互动、客服、攻略问答、代码和脚本生成)等。 对于小游戏公司,Stable Diffusion 可能是一个较为合适的选择,它在 2D 美术素材辅助生成方面能够提高创作效率、降低成本,并且有多种应用场景,如文生图、图生图等。同时,也可以考虑结合线上平台进行参考和测试。
2025-03-04