对于小公司想要部署一个能对运维、运营、客服、美术、策划、程序都有帮助的本地 AI 系统,以下是一些相关信息:
线上和线下本地部署的 AI 特点: 线上部署的优势在于出图速度快,不依赖本地显卡配置,无需下载大型模型,还能参考其他创作者的作品,但出图尺寸受限。线下部署的优势是可添加插件,出图质量高,但使用时电脑可能宕机,配置不高可能爆显存导致出图失败。建议线上用于找参考、测试模型,线下作为主要出图工具。
Ollama:
Google Gemma: 是 Google 发布的家用版小模型,有 2b(20 亿参数)和 7b(70 亿参数)版本。小模型可能不适合复杂任务,但适合提升基础操作效率。部署环境友好,可通过 ollama 方便部署,支持热加载模型文件。2b 反应速度快但互动话题有限,7b 输出质量高但可能卡顿,对非英文语种反馈不稳定。
综合考虑,如果您的公司对出图质量要求较高,且有较好的硬件配置,可以选择线下部署结合线上测试的方式。在语言模型方面,Ollama 具有较多优势,可根据具体需求选择合适的模型进行部署。
目前市面上有线上和线下本地部署的两种AI:线上的优势为出图速度快,不吃本地显卡的配置,且无需自己下载动辄几个G的模型,还能看其他创作者的制作的涩图,但为了节约算力成本他们只支持出最高1024X1024左右的图,制作横板、高清等图片就会受限线下部署的优势为可以自己添加插件,不卡算力,出图质量高于线上平台,但是使用期间电脑基本处于宕机状态,如果配置不高的话还会出现生成半天之后爆显存的情况,导致出图失败[heading3]所以我们这里充分发挥线上和线下平台的优势[content]线上:找参考,测试模型线下:主要的出图工具在线上绘图网站的绘图广场上发现自己想要的画风点击创作,会自动匹配创作的使用的模型lora和tag截取一小张游戏人物作为底图,目的是将线上平台有限的算力全部堆在人物身上多批次,多数量的尝试不同的画风,得出最符合游戏的一款模型+lora组合最后在C站([https://civitai.com/](https://civitai.com/))上下载对应模型到本地,加载部署后就可以开始正式生图了!
1.支持多种大型语言模型:Ollama支持包括通义千问、Llama 2、Mistral和Gemma等在内的多种大型语言模型,这些模型可用于不同的应用场景。2.易于使用:Ollama旨在使用户能够轻松地在本地环境中启动和运行大模型,适用于macOS、Windows和Linux系统,同时支持cpu和gpu。3.模型库:Ollama提供了一个模型库,用户可以从中下载不同的模型。这些模型有不同的参数和大小,以满足不同的需求和硬件条件。Ollama支持的模型库可以通过https://ollama.com/library进行查找。4.自定义模型:用户可以通过简单的步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。5.API和集成:Ollama还提供了REST API,用于运行和管理模型,以及与其他应用程序的集成选项。6.社区贡献:Ollama社区贡献丰富,包括多种集成插件和界面,如Web和桌面应用、Telegram机器人、Obsidian插件等。7.总的来说,Ollama是一个为了方便用户在本地运行和管理大型语言模型而设计的框架,具有良好的可扩展性和多样的使用场景。后面在捏Bot的过程中需要使用Ollama,我们需要先安装,访问以下链接进行下载安装。https://ollama.com/download/安装完之后,确保ollama后台服务已启动(在mac上启动ollama应用程序即可,在linux上可以通过ollama serve启动)。我们可以通过ollama list进行确认,当我们还没下载模型的时候,正常会显示空:可以通过ollama命令下载模型,目前,我下载了4个模型:几个模型简介如下:
作者:吵爷Google刚刚发布了家用版的小模型Gemma,分别为2b(20亿参数)和7b(70亿参数)版本。相对千亿参数的大模型,这种小模型可能不适合解决特别复杂的任务,但是从趋势上看应该是模型本地化提升基础操作效率的模板。类似之前国内发布的ChatGLM-6B。现在的部署环境比一年前要友好多了,首先提一下Ollama,Ollama是一个开源的大型语言模型服务,可以非常方便地部署最新版本的GPT模型并通过接口使用,支持热加载模型文件,无需重新启动即可切换不同的模型。除了Gemma,像小型的llama也支持本地部署。环境准备首先进入ollama.com,下载程序并安装(支持windows,linux和macos)查找cmd进入命令提示符,输入ollama-v检查版本,安装完成后版本应该显示0.1.26cls清空屏幕,接下来直接输入ollama run gemma运行模型(默认是2b),首次需要下载,需要等待一段时间,如果想用7b,运行ollama run gemma:7b完成以后就可以直接对话了,2个模型都安装以后,可以重复上面的指令切换。2b的反应速度非常快,但是能够互动的话题有限。7b我也试了下,能跑是能跑(我是3050显卡),但是会有明显的卡顿,输出内容的质量相对会高不少,但无论2b还是7b,对非英文语种的反馈都不是很稳定。2b测试7b测试另外模型里一些常用的内部指令/set显示设置界面可调整的设置项/show显示模型信息