以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息:
运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求:
对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。
由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。
在笔记本电脑选择方面,建议选择具备以下配置的机型:
但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。
有多个AI产品可以实现换脸效果,这里介绍一个开源、免费的解决方案:facefusion开源地址:https://github.com/facefusion/facefusion4.1本机解决方案这个软件需要python环境,以及要安装视频解码器等多个依赖的软件,因此如果你想在本地电脑上安装,需要一定的编程知识。可以参考网站:https://docs.facefusion.io/说明来进行本地的安装。由于facefusion的运行推理计算的速度,非常依赖于GPU,因此如果本地计算机没有GPU或者GPU显存较小,那么执行的速度将会非常缓慢。我的笔记本是Macbook Pro M1 16GB内存,集成GPU。对一个1分30秒的视频换脸,需要1300秒。facefusion所以,无论从环境配置还是计算速度来说,都不推荐本地化安装实现。4.2云服务解决方案另一个可选的方案,是利用云厂商已经提供好的大模型运行环境和计算能力。比如阿里云的PAI和AutoDL。注:这种方案需要产生一定的费用。我选择的是AutoDL,其官网是:https://www.autodl.com/home注册完成后,在算力市场中,选择你能接受价格的算力服务器。建议选取GPU配置更高的算力设备。4.2.2通过模型镜像启动GPU服务器在算法社区查找facefusion镜像:
5~6台火火兔+ folotoy模组(3套现场试玩的成品,2套拆开的裸组件),有更多其他形态的机子更佳用于连接火火兔和电脑的网络本地部署的dify服务器-- Larrytts和asr服务器两台笔记本+两张以上椅子展示用桌子两张屏幕2块一个相对安静的空间用于语音克隆
所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。