您现在的位置是:物联网 >>正文
AI计算,为什么要用GPU?
物联网5577人已围观
简介今天这篇文章,我们继续来聊聊芯片。在之前的文章里,小枣君说过,行业里通常会把半导体芯片分为数字芯片和模拟芯片。其中,数字芯片的市场规模占比较大,达到70%左右。数字芯片,还可以进一步细分,分为:逻辑芯 ...

今天这篇文章,AI计算我们继续来聊聊芯片 。AI计算
在之前的AI计算文章里 ,小枣君说过,AI计算行业里通常会把半导体芯片分为数字芯片和模拟芯片 。AI计算其中 ,AI计算数字芯片的AI计算市场规模占比较大 ,达到70%左右 。AI计算
数字芯片 ,AI计算还可以进一步细分,AI计算分为:逻辑芯片、AI计算存储芯片以及微控制单元(MCU)。AI计算

存储芯片和MCU以后再介绍,AI计算今天小枣君重点讲讲逻辑芯片 。AI计算
逻辑芯片,建站模板AI计算其实说白了就是计算芯片。它包含了各种逻辑门电路 ,可以实现运算与逻辑判断功能,是最常见的芯片之一 。
大家经常听说的CPU、GPU 、FPGA 、ASIC,全部都属于逻辑芯片 。而现在特别火爆的AI,用到的源码库所谓“AI芯片” ,也主要是指它们。
CPU(中央处理器)先说说大家最熟悉的CPU ,英文全称Central Processing Unit,中央处理器 。

CPU
但凡是个人都知道,CPU是计算机的心脏 。
现代计算机 ,都是基于1940年代诞生的冯·诺依曼架构 。服务器租用在这个架构中 ,包括了运算器(也叫逻辑运算单元 ,ALU)、控制器(CU) 、存储器 、输入设备、输出设备等组成部分。

冯·诺依曼架构
数据来了,会先放到存储器 。然后 ,控制器会从存储器拿到相应数据 ,再交给运算器进行运算。运算完成后 ,再把结果返回到存储器。
这个流程,还有一个更有逼格的免费模板叫法:“Fetch(取指)-Decode(译码)- Execute(执行)-Memory Access(访存)-Write Back(写回)”。
大家看到了,运算器和控制器这两个核心功能 ,都是由CPU负责承担的。
具体来说,运算器(包括加法器 、减法器、乘法器、除法器) ,负责执行算术和逻辑运算 ,是真正干活的 。控制器 ,源码下载负责从内存中读取指令 、解码指令 、执行指令,是指手画脚的。
除了运算器和控制器之外 ,CPU还包括时钟模块和寄存器(高速缓存)等组件 。

时钟模块负责管理CPU的时间,为CPU提供稳定的时基 。它通过周期性地发出信号 ,驱动CPU中的所有操作 ,调度各个模块的亿华云工作。
寄存器是CPU中的高速存储器 ,用于暂时保存指令和数据。它的CPU与内存(RAM)之间的“缓冲”,速度比一般的内存更快 ,避免内存“拖累”CPU的工作。
寄存器的容量和存取性能,可以影响CPU到对内存的访问次数 ,进而影响整个系统的效率。后面我们讲存储芯片的时候,还会提到它 。
CPU一般会基于指令集架构进行分类,包括x86架构和非x86架构。x86基本上都是复杂指令集(CISC),而非x86基本为精简指令集(RISC) 。
PC和大部分服务器用的是x86架构 ,英特尔和AMD公司占据主导地位。非x86架构的类型比较多,这些年崛起速度很快 ,主要有ARM 、MIPS、Power、RISC-V、Alpha等 。以后会专门介绍。
GPU(图形处理器)再来看看GPU。
GPU是显卡的核心部件 ,英文全名叫Graphics Processing Unit ,图形处理单元(图形处理器)。
GPU并不能和显卡划等号。显卡除了GPU之外 ,还包括显存、VRM稳压模块、MRAM芯片 、总线、风扇、外围设备接口等。

显卡
1999年,英伟达(NVIDIA)公司率先提出了GPU的概念 。
之所以要提出GPU,是因为90年代游戏和多媒体业务高速发展 。这些业务给计算机的3D图形处理和渲染能力提出了更高的要求 。传统CPU搞不定,所以引入了GPU,分担这方面的工作。
根据形态 ,GPU可分为独立GPU(dGPU,discrete/dedicated GPU)和集成GPU(iGPU ,integrated GPU) ,也就是常说的独显、集显。
GPU也是计算芯片。所以 ,它和CPU一样 ,包括了运算器、控制器和寄存器等组件。
但是 ,因为GPU主要负责图形处理任务,所以,它的内部架构和CPU存在很大的不同 。

如上图所示 ,CPU的内核(包括了ALU)数量比较少,最多只有几十个。但是 ,CPU有大量的缓存(Cache)和复杂的控制器(CU) 。
这样设计的原因 ,是因为CPU是一个通用处理器。作为计算机的主核心,它的任务非常复杂 ,既要应对不同类型的数据计算 ,还要响应人机交互。
复杂的条件和分支 ,还有任务之间的同步协调,会带来大量的分支跳转和中断处理工作。它需要更大的缓存,保存各种任务状态,以降低任务切换时的时延 。它也需要更复杂的控制器,进行逻辑控制和调度 。
CPU的强项是管理和调度。真正干活的功能,反而不强(ALU占比大约5%~20%)。
如果我们把处理器看成是一个餐厅的话 ,CPU就像一个拥有几十名高级厨师的全能型餐厅。这个餐厅什么菜系都能做 ,但是 ,因为菜系多 ,所以需要花费大量的时间协调、配菜,上菜的速度相对比较慢。
而GPU则完全不同。
GPU为图形处理而生 ,任务非常明确且单一 。它要做的,就是图形渲染 。图形是由海量像素点组成的,属于类型高度统一 、相互无依赖的大规模数据。
所以,GPU的任务,是在最短的时间里 ,完成大量同质化数据的并行运算 。所谓调度和协调的“杂活” ,反而很少 。
并行计算 ,当然需要更多的核啊。
如前图所示 ,GPU的内核数,远远超过CPU,可以达到几千个甚至上万个(也因此被称为“众核”)。

RTX4090有16384个流处理器
GPU的核,称为流式多处理器(Stream Multi-processor ,SM) ,是一个独立的任务处理单元 。
在整个GPU中,会划分为多个流式处理区 。每个处理区 ,包含数百个内核。每个内核 ,相当于一颗简化版的CPU,具备整数运算和浮点运算的功能,以及排队和结果收集功能 。
GPU的控制器功能简单,缓存也比较少。它的ALU占比 ,可以达到80%以上。
虽然GPU单核的处理能力弱于CPU,但是数量庞大 ,非常适合高强度并行计算。同等晶体管规模条件下 ,它的算力 ,反而比CPU更强。
还是以餐厅为例 。GPU就像一个拥有成千上万名初级厨师的单一型餐厅。它只适合做某种指定菜系 。但是,因为厨师多 ,配菜简单 ,所以大家一起炒,上菜速度反而快。

CPU vs GPU
GPU与AI计算大家都知道,现在的AI计算,都在抢购GPU 。英伟达也因此赚得盆满钵满。为什么会这样呢?
原因很简单,因为AI计算和图形计算一样,也包含了大量的高强度并行计算任务 。
深度学习是目前最主流的人工智能算法。从过程来看 ,包括训练(training)和推理(inference)两个环节 。

在训练环节 ,通过投喂大量的数据,训练出一个复杂的神经网络模型 。在推理环节,利用训练好的模型,使用大量数据推理出各种结论 。
训练环节由于涉及海量的训练数据 ,以及复杂的深度神经网络结构,所以需要的计算规模非常庞大 ,对芯片的算力性能要求比较高。而推理环节,对简单指定的重复计算和低延迟的要求很高 。
它们所采用的具体算法,包括矩阵相乘 、卷积 、循环层 、梯度运算等,分解为大量并行任务 ,可以有效缩短任务完成的时间 。
GPU凭借自身强悍的并行计算能力以及内存带宽,可以很好地应对训练和推理任务 ,已经成为业界在深度学习领域的首选解决方案。
目前 ,大部分企业的AI训练,采用的是英伟达的GPU集群 。如果进行合理优化 ,一块GPU卡,可以提供相当于数十其至上百台CPU服务器的算力 。

NVIDIA HGX A100 8 GPU 组件
不过 ,在推理环节 ,GPU的市场份额占比并没有那么高 。具体原因我们后面会讲 。
将GPU应用于图形之外的计算,最早源于2003年 。
那一年 ,GPGPU(General Purpose computing on GPU ,基于GPU的通用计算)的概念首次被提出 。意指利用GPU的计算能力,在非图形处理领域进行更通用 、更广泛的科学计算 。
GPGPU在传统GPU的基础上 ,进行了进一步的优化设计,使之更适合高性能并行计算。
2009年 ,斯坦福的几位学者,首次展示了利用GPU训练深度神经网络的成果,引起了轰动。
几年后 ,2012年 ,神经网络之父杰弗里·辛顿(Geoffrey Hinton)的两个学生——亚历克斯·克里切夫斯基(Alex Krizhevsky)、伊利亚·苏茨克沃(Ilya Sutskever) ,利用“深度学习+GPU”的方案,提出了深度神经网络AlexNet,将识别成功率从74%提升到85% ,一举赢得Image Net挑战赛的冠军。

左起:伊利亚·苏茨克沃 ,亚历克斯·克里切夫斯基 ,杰弗里·辛顿
这彻底引爆了“AI+GPU”的浪潮。英伟达公司迅速跟进 ,砸了大量的资源 ,在三年时间里,将GPU性能提升了65倍。
除了硬刚算力之外,他们还积极构建围绕GPU的开发生态。他们建立了基于自家GPU的CUDA(Compute Unified Device Architecture)生态系统 ,提供完善的开发环境和方案,帮助开发人员更容易地使用GPU进行深度学习开发或高性能运算 。
这些早期的精心布局,最终帮助英伟达在AIGC爆发时收获了巨大的红利。目前,他们市值高达1.22万亿美元(英特尔的近6倍),是名副其实的“AI无冕之王”。
那么,AI时代的计算,是不是GPU一家通吃呢?我们经常听说的FPGA和ASIC ,好像也是不错的计算芯片。它们的区别和优势在哪里呢?
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“算法与编程”。http://www.bzli.cn/news/324c7899597.html
相关文章
2023年的网络安全应对措施和优秀实践将如何进展
物联网AlgoSec公司的联合创始人兼首席技术官Avishai Wool日前对2023年的网络安全实践将发展的五个领域进行了展望,以应对不断变化的网络威胁以及促进网络安全技术的进步。以应用程序为中心的网络 ...
【物联网】
阅读更多缓存的作用、类型及在.NET中的实现方式,你学会了吗?
物联网引言在现代软件开发中,缓存技术扮演着至关重要的角色。它不仅能显著提升应用程序的性能,还能有效减轻数据库和服务器的负载。本文将深入探讨缓存的作用、类型以及如何在.NET平台上实现缓存,旨在为开发者提供全 ...
【物联网】
阅读更多英特尔发布新款AI芯片Gaudi 3,声称运行AI模型比英伟达H100快1.5倍
物联网4月10日消息,当地时间周二,英特尔发布了其最新款人工智能芯片Gaudi 3。目前,芯片制造商正急于开发能够训练和部署大型人工智能模型的芯片。英特尔宣布,Gaudi 3的能效是英伟达H100GPU芯片 ...
【物联网】
阅读更多
热门文章
最新文章
友情链接
- 小米Note2(小米Note2在市场上受到广泛关注,销量持续飙升)
- VivoY55L(一款性价比高、功能强大的手机选择)
- 什么是PDU?如何为数据中心选择合适的PDU
- 探索苹果7P10.33系统的卓越性能与特点(一探苹果7P10.33系统的强大功能和用户体验)
- 安卓手机怎么空手接电话
- 红米Note4在知乎上的评价如何?(通过知乎用户的真实评价了解红米Note4的性能、使用体验及优缺点)
- HTC M8口袋模式如何开启
- 红米Note恢复出厂设置密码是什么
- i54590处理器的性能及特点剖析(了解i54590处理器的主要特性及其在计算机领域的应用)
- EA888发动机(卓越性能、可靠稳定、绿色环保的EA888发动机) 亿华云企业服务器源码库b2b信息平台云服务器香港物理机网站建设