以下是为您推荐的一些用于本地编程辅助的插件和基座模型:
此外,对于 SDXL 的本地部署,大模型分为 base+refiner 和配套的 VAE 模型两部分。base 是基础模型用于文生图操作,refiner 用于细化生成的模型以获得更丰富的细节,VAE 用于调节图片效果和色彩。要在 webUI 中使用,需将 webUI 版本升级到 1.5 以上,并将模型放入对应文件夹。
这就要先提到API大户OpenRouter新发布的功能:BYOK(Bring Your Own API Keys)简单来说是个第三方Key集成功能,将xAI、OpenAI、Mistral等数十个平台的Key集中在一起。跟其他的集成项目最大的不同是可以同时使用其他平台和OpenRouter的额度。以gemini-2.0-flash为例,相当于可以同时使用OpenRouter和AI Studio的免费额度。目前支持白“赚”的平台:AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI模型太多也不是好事,虽然有快捷键,但编程过程中还是需要人脑判断用哪个模型,我理想的配置应该是:推理模型:o1、gemini-2.0-flash-thinking代码模型:claude-3.5-sonet(还是太能打了)、gpt-4o-mini(价格友好)多模态模型:gemini-2.0-flash常规模型:DeepSeek V3使用OpenRouter集成API Key的好处不仅是整合了免费额度,还解放了更多的槽位。毕竟在Cursor的设置里,deepseek就会跟gpt的配置发生冲突。也就是说虽然我有十几个key,但是我同一时间最多只能使用4个类型的模型。当然,如果觉得这些供应商支持的模型还不够,特别是对国产大模型支持比较少的话,我们还可以使用上古真神:simple-one-api不过simple-one-api不像openrouter,支持直接在线配置多个Key。熟悉代码的可以通过本地或者Docker启动。如果你想跟我一样,在其他环境也想用到配置好的大模型们,我觉得可以试试看Zeabu r:
SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!
Fengshenbang-LM:地址:[https://github.com/IDEA-CCNL/Fengshenbang-LM](https://github.com/IDEA-CCNL/Fengshenbang-LM)简介:Fengshenbang-LM(封神榜大模型)是IDEA研究院认知计算与自然语言研究中心主导的大模型开源体系,该项目开源了姜子牙通用大模型V1,是基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。除姜子牙系列模型之外,该项目还开源了太乙、二郎神系列等模型。BiLLa:地址:[https://github.com/Neutralzz/BiLLa](https://github.com/Neutralzz/BiLLa)简介:该项目开源了推理能力增强的中英双语LLaMA模型。模型的主要特性有:较大提升LLaMA的中文理解能力,并尽可能减少对原始LLaMA英文能力的损伤;训练过程增加较多的任务型数据,利用ChatGPT生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果。Moss:地址:[https://github.com/OpenLMLab/MOSS](https://github.com/OpenLMLab/MOSS)简介:支持中英双语和多种插件的开源对话语言模型,MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。