显卡在 AI 领域具有重要作用:
算力的字面意思就是计算能力(Computing Power),是随着区块链,AI等概念被反复提及,其实没什么特别的,可以直接转化成GPU就是算力,电脑里的显卡就是GPU,那么算力=显卡可以这样粗暴的理解。哪怕你购买云服务,也是服务商买显卡“租”给你用的意思。而一张显卡除了GPU外,还有一个很重要的参数是显存。GPU:图形处理器(Graphics Processing Unit)又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。CPU:中央处理器(Central Processing Unit)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。显存:也被叫做帧缓存,它的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。
为了消除对AI的误解和无根据的信仰,这里介绍神经网络模型的工作原理,包括它的硬件和软件组成。从整体上看,我们可以简化理解模型为存储在电脑硬盘上的一系列文件。训练过程实际上是将互联网上的高质量数据转换为模型可以理解的格式,而转换后的数据基本上是对人类不可读的。在模型启动过程中,数据从硬盘加载到显卡中。这个过程类似于我们使用Word打开一个文档文件,其中Word程序将doc文件读入内存。显卡在处理某些任务上优于CPU,主要是因为它专注于执行浮点运算,而CPU负责执行更广泛的计算任务。显卡上的每个单元可能存放了不同的数据,这些数据可以简单理解为Python类实例中的参数。完成数据加载和实例化后,模型就可以接收外部请求了。我们需要理解的关键概念是,大模型的参数可以理解为类实例中的数据,这些参数是模型运行的基础。重要的是,大模型不会存储用户的数据,因此它不具备记忆功能。一旦系统启动,参数便固定下来,不再发生变化。
下方是40系的产品对比图,大家可以按照自己的预算选购。我认为16GB的4060ti虽然速度比12GB的4070ti慢了一点,但是大显存可以执行更多样的AI生成任务,比如生成更大分辨率的超清图片,使用更高的参数进行Dream booth微调等,相比起能不能执行任务,执行任务慢一点就不那么重要了。