以下是一些本地生图工具:
方式一:Liblib在线生图[Flux.1|Labubu LoRA_泡泡玛特-LoRA-stax-LiblibAI](https://www.liblib.art/modelinfo/da87c0d1ead0414a9c7f2df70c488d91?from=personal_page)方式二:本地ComfyUI Flux+Lora工作流[flux+Labubu Lora.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/En6Jbdp3yoUX06x28OQc2aR2nHh?allow_redirect=1)关于ComfyUI Flux+Lora工作流相关介绍可以参考之前的作业:[第十五期生图新王FLUX.1](https://waytoagi.feishu.cn/wiki/QulMweTajijBakkvtgnc7sHXnPe)工作流中涉及的主要模型网盘:https://pan.quark.cn/s/2797ea47f691 FLUX.1-schnell:https://huggingface.co/black-forest-labs/FLUX.1-schnell/blob/main/flux1-schnell.safetensors[ae.safetensors](https://bytedance.feishu.cn/space/api/box/stream/download/all/NDxOb7IPmopwzExd2PVcIK4cn4f?allow_redirect=1)[clip_l.safetensors](https://bytedance.feishu.cn/space/api/box/stream/download/all/KBUVb8lOSodyHHxQo5AcWmLYnUb?allow_redirect=1)t5xxl_fp8_e4m3fn:
目前市面上有线上和线下本地部署的两种AI:线上的优势为出图速度快,不吃本地显卡的配置,且无需自己下载动辄几个G的模型,还能看其他创作者的制作的涩图,但为了节约算力成本他们只支持出最高1024X1024左右的图,制作横板、高清等图片就会受限线下部署的优势为可以自己添加插件,不卡算力,出图质量高于线上平台,但是使用期间电脑基本处于宕机状态,如果配置不高的话还会出现生成半天之后爆显存的情况,导致出图失败[heading3]所以我们这里充分发挥线上和线下平台的优势[content]线上:找参考,测试模型线下:主要的出图工具在线上绘图网站的绘图广场上发现自己想要的画风点击创作,会自动匹配创作的使用的模型lora和tag截取一小张游戏人物作为底图,目的是将线上平台有限的算力全部堆在人物身上多批次,多数量的尝试不同的画风,得出最符合游戏的一款模型+lora组合最后在C站([https://civitai.com/](https://civitai.com/))上下载对应模型到本地,加载部署后就可以开始正式生图了!
还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。可以看到细节又提升了不少,可惜的是,现在还不能配合tile来使用。在生成时间上,我的显卡是4080ti,速度在十秒左右。所以sdxl对于高配电脑还是可以接受的,但配置较低的朋友需要自己去测试一下了。当然,有人可能会说,这个操作好麻烦,生成一张图要去两个界面来回倒腾。在这里,我给大家再介绍一款插件。我们来到扩展列表中,搜索refine,点击安装插件,然后重启。启用这个插件,就可以让我们在文生图的界面直接使用refine模型,进一步到位的绘画。我填写一段正向提示词:a girl looks up at the sky in the city of cyberpunk,close-up,wearing a helmet,fantasy elements,game original,starry_sky,点击生成,生产过程中的显存使用情况,显存基本跑满。最终的生成图像用时36秒,效果我觉得非常好,很难想象这是曾经的sd能够直出的效果。然后,我用同样的提示词在midjourney里面进行了生成。从心里的实话来说,我觉得midjourney的美感把握和图像的细节绘制还是要更胜一筹的。但对于SD而言,它的优势并不在于美图直出,而是它强大的可操控性,只要继续在SDXL上去发展,它的未来是不可限量的。