本地运行 Llama3 所需电脑配置的相关信息如下:
需要注意的是,模型的回复速度取决于您电脑的配置。另外,您还可以参考开源项目GitHub - datawhalechina/self-llm:《开源大模型食用指南》基于 Linux 环境快速部署开源大模型,更适合中国宝宝的部署教程 。同时,有教程提到可以通过购买算力解决本地电脑配置不够的问题,但需要充值 50 元。
1、点击/复制到浏览器去下载https://docs.docker.com/desktop/install/windows-install/2、下载后,双击下载项目,出现下图,点击ok,开始加载文件。注意!!!!这里下载相对比较快,下载完成后,不要点击“close and restart”,因为这样会直接重启,导致llama3下载中断。3、这里先不点击,等待终端的模型下载完成后,再点击重启。4、重启后,点击:“Accept”5、选择第一个,点击"Finish"6、然后会提示你注册账号,如果打不开网页,就需要科学上网了,这个大家应该都会。(不会的话,私聊吧,这里不说了)7、按照正常的注册流程,注册账号,并登录Docker即可。登录后会进入Docker Desktop。此处完成。[heading2]四、下载Open WebUI[content]1、回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+ Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、将以下命令输入,等待下载:3、出现上图,即是下载完成。4、点击或复制下方地址进入浏览器:http://localhost:3000/auth/5、点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。6、登入后,看到如下页面,点击顶部的Model,选择“llama3:8b”。7、完成。你已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦!ps.他的回复速度,取决于你的电脑配置。
1、打开终端如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+ Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,文件较慢,这里下载时,可以继续去第三步(安装Docker)执行。(这里下载会很慢,一般不会出错,正常等待即可。实在有问拉到最下边加我好友,给你发压缩包)(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。(此处可以测试下,输入文本是否可以进行对话。此处对话的速度,取决于你电脑的配置。)
本文的核心代码全部参考如下开源项目:[GitHub - datawhalechina/self-llm:《开源大模型食用指南》基于Linux环境快速部署开源大模型,更适合中国宝宝的部署教程](https://github.com/datawhalechina/self-llm/tree/master)[heading1]一、引言[content]大家好,我是大圣,一个致力于使用AI技术将自己打造为超级个体的程序员。作为一名程序员,我对大模型技术是非常向往的,但是因为是非科班出身,一直迟迟没有动手。在Llama3出来之后,我萌生了微调的想法,我的目的很简单,不是为了学习多么高深的知识,而是让自己先入门。入门最好的方式就是直接上手实操,这是也是之前的一系列教程中所强调的理念。由于市面上没有找到专门针对我们纯小白的教程,所以这篇教程就来啦!这篇教程的亮点教你如何购买算力,不再为本地电脑的配置不够而发愁手把手教你下载并部署Llama3模型,以前都是玩别人部署的,这次咱们玩自己的!)使用甄嬛数据集微调Llama3模型,并且针对微调后的模型进行实验了解微调的意义和概念但是这篇教程不会讲解微调的技术性原理以及文中会用到的Python代码。原因很简单,因为我是一位Java开发工程师,里面的代码我都是靠GPT4.0帮我读的另外这篇教程需要你充值50块钱,不过不是给我哦,是购买算力的预充值。我不想因为50块钱把你劝退,所以这里我要多说一句,免费的才是最贵的。看完我的教程,你绝对会认为这50块钱花的很值OK,都交代清楚,大家按照决定是否要继续享用,废话不多少,我们直接开始