您现在的位置是:物联网 >>正文

ASIC会不会取代GPU?

物联网86人已围观

简介最近这段时间,美国股票市场的动静比较大。有两个科技股概念,突然变得很火,引起了市场的高度关注,涨幅惊人。这两个概念,分别是ASIC和量子计算。今天这篇文章,我们主要说说ASIC。按资本市场的说法,AS ...

最近这段时间,美国股票市场的动静比较大 。有两个科技股概念  ,突然变得很火,引起了市场的高度关注,涨幅惊人。这两个概念  ,分别是ASIC和量子计算。

今天这篇文章  ,我们主要说说ASIC 。

按资本市场的说法,ASIC正在加速崛起,威胁GPU在AI计算中的高防服务器统治地位。而博通,作为ASIC最重要的概念股,股价一路猛涨,一度从180飙到了250,市值也突破了万亿美元。相比之下 ,英伟达反而成了昨日黄花 ,股价一路下跌 ,甚至不到130美元 。

博通股价(昨天跌了)

那么,ASIC时代真的到来了吗 ?博通真的会取代英伟达 ,成为新的建站模板AI之王?

ASIC和GPU是什么

ASIC和GPU ,都是用于计算功能的半导体芯片。因为都可以用于AI计算,所以也被称为“AI芯片” 。

准确来说 ,除了它俩,计算芯片还包括大家更熟悉的CPU ,以及FPGA。

行业里,通常会把半导体芯片分为数字芯片和模拟芯片 。其中,数字芯片的模板下载市场规模占比较大 ,达到70%左右。

数字芯片 ,还可以进一步细分 ,分为:逻辑芯片、存储芯片以及微控制单元(MCU)。CPU、GPU、FPGA、ASIC,全部都属于逻辑芯片。

芯片的分类

逻辑芯片  ,就是计算芯片 。它包含了各种逻辑门电路,源码下载可以实现运算与逻辑判断功能 。

四个芯片里,CPU和GPU是通用芯片,可以完成多种任务 。尤其是CPU,是全能型选手 ,单核主频高 ,啥都能干,所以经常被拿来做主处理器。

而GPU,本来是用来做图形处理(显卡)的。源码库它的内核数量特别多(大几千个),适合做并行计算 ,也就是擅长同时做大量的简单计算任务。(图形处理,就是同时处理大量的像素计算 。)

AI计算和图形计算一样,也是典型的并行计算型任务。

AI计算中包括大量并行的矩阵相乘 、服务器租用卷积 、循环层 、梯度运算等任务 ,所以 ,特别适合GPU去完成 。CPU不适合AI计算 ,这也是英特尔股价跌到20美元以下的原因之一 。

2023年以来  ,AI浪潮爆发 ,大部分企业的AI训练 ,采用的是英伟达的GPU集群 。如果进行合理优化,一块GPU卡 ,可以提供相当于数十其至上百台CPU服务器的算力 。这直接导致了英伟达的股价猛涨了几十倍 ,而且还买不到 。

NVIDIA HGX A100 8 GPU 组件

再来看看ASIC和FPGA。

ASIC(Application Specific Integrated Circuit,专用集成电路) ,是一种专用于特定任务的芯片。ASIC的官方定义,是指 :应特定用户的要求,或特定电子系统的需要,专门设计 、制造的集成电路。

Google公司大名鼎鼎的TPU(Tensor Processing Unit,张量处理单元) ,还有前几年很火的比特币矿机 ,英特尔的Gaudi 2 ASIC芯片 ,IBM的AIU,AWS的Trainium,都属于ASIC芯片。

这几年非常火的DPU(Data Processing Unit,数据处理单元)和NPU(Neural Processing Unit,神经网络处理单元) ,也是ASIC芯片 。

FPGA(Field Programmable Gate Array ,现场可编程门阵列) ,是半定制芯片 ,也被人称为“万能芯片”  。FPGA可以根据用户的需要,在制造后 ,进行无限次数的重复编程 ,以实现想要的数字逻辑功能 。

ASIC和FPGA的区别在于,AISC是全定制芯片,功能写死,没办法改 。而FPGA是半定制芯片 ,功能灵活,可玩性强 。FPGA不需要流片(很烧钱的一个工序) ,但因为可编辑 ,冗余功能比较多  ,一旦用于单一目的 ,就会存在浪费。大规模生产的情况下,FPGA的成本比ASIC高,且极致能效不如ASIC 。

所以 ,FPGA现在多用于产品原型的开发 、设计迭代,以及一些低产量的特定应用 ,或者用于培训和教学。它适合那些开发周期必须短的产品 ,也经常用于ASIC的验证。

反正 ,大家记住 ,大规模出货用于AI计算 ,一般不考虑FPGA 。

所以 ,AI芯片 ,也就是GPU和ASIC之争。

GPU和ASIC ,到底谁厉害 ?

ASIC作为专用定制芯片  ,基于芯片所面向的专项任务 。它的计算能力和计算效率都是严格匹配于任务算法的 。芯片的核心数量,逻辑计算单元和控制单元比例  ,以及缓存等 ,整个芯片架构,也是精确定制的。

所以,ASIC可以实现极致的体积 、功耗 。这类芯片的可靠性 、保密性 、算力、能效 ,都会比通用芯片(GPU)更强。

例如,在同等预算下,AWS的Trainium 2(ASIC芯片)可以比英伟达的H100 GPU更快速完成推理任务 ,且性价比提高了30-40%。明年计划推出的Trainium3,计算性能更是提高了2倍 ,能效提高40%。

但是 ,为什么这两年一直火的都是GPU呢?

主要是因为英伟达太猛。

英伟达在AI上也是歪打正着。当年AI大佬辛顿(就是那个新晋诺贝尔奖得主)带着徒弟使用GPU做AI训练,获得巨大突破,才让英伟达发现自己竟然还有这样的泼天富贵。

然后 ,英伟达就开始在AI发力 ,拼命做更厉害的GPU(当然 ,也有游戏的带动) 。

在英伟达的持续努力下 ,GPU的核心数和工作频率一直在提升 ,芯片面积也越来越大。算力越强 ,有利于缩短训练时间 ,加快产品发布 ,这也是重要优势  。

当然 ,算力变强 ,功耗也水涨船高 。但是 ,靠工艺制程 、水冷等被动散热,勉强也能兜得住,反正不会烧掉  。

除了硬件之外,英伟达在软件和生态方面也很会布局。

他们捣鼓出来的CUDA(AI开发的软件套件),是GPU的一个核心竞争力 。基于CUDA,初学者都可以很快上手 。所以  ,英伟达的GPU方案,被全球用户广泛接受,形成了牢固的生态  。

相比之下 ,FPGA和ASIC的开发还是太过复杂 ,不适合普及 。

ASIC之所以在AI上干不过GPU ,和它的高昂成本 、超长开发周期、巨大开发风险有很大关系 。现在AI算法变化很快,ASIC这种开发周期,很要命。

综合上述原因,GPU才有了现在的大好局面。

值得一提的是,前面说了,AI计算分为训练和推理两种。训练任务 ,需要更强大的算力,所以在AI训练上,厂商们主要以GPU为主 。

推理任务的话 ,算力要求要低一点 ,也不需要什么并行,所以GPU的算力优势没那么明显。很多企业,就会开始采用更便宜、更省电的FPGA或ASIC,进行计算 。

这个情况,一直持续到了现在 。AI芯片 ,GPU的占比能达到70%以上。

如今,因为大家实在是“苦英伟达久矣”,不想总被英伟达“卡脖子” ,所以非常希望算力多元化 。再有 ,大模型现在从“训练热”走向了“推理热” 。推理类的AI计算需求增加 ,给了ASIC机会 。

所以 ,扶持ASIC产业链 ,提升ASIC芯片在AI领域的占有率,成为了大家的共识。这才有了博通和Marvell股价的猛涨。(据说,博通正与三个大型客户开发AI芯片,预计2025年AI芯片业务收入达到150亿-200亿美元 。)

那么,取代就真的那么容易吗 ?ASIC会很快淘汰掉GPU吗?

显然不是的 。

凭借前面提到的性能 、生态、集成能力等方面的优势 ,英伟达的GPU仍然会是中短期内的AI芯片首选 。英伟达的软硬件网络整套方案都很成熟 ,技术和资金实力太强 ,GPU的存量和出货量依然很大,市场地位难以撼动 。

ASIC的崛起速度虽然很快 ,但仍需要一定的时间走向成熟 。AI ASIC芯片的研发  ,也具有很高的风险 。即使研发成功 ,也需要时间被用户所接受 。

这就意味着 ,在很长的一段时间内 ,GPU和ASIC都将处于共存状态 。基于不同的场景,用户会选择最适合自己的芯片。发展自研ASIC,更多是有利于厂商们和英伟达进行谈判砍价。

未来的情况还是比较难预测的。量子计算是不是会对计算领域造成颠覆式影响,现在也是讨论的热点 。

Tags:

相关文章

  • 7行代码让B站崩溃3小时,竟因“一个诡计多端的0”

    物联网

    一个小小字符“0”,竟引得B站全面崩溃。不知你是否还记得那一夜,B站“大楼停电”、“服务器爆炸”、“程序员删库跑路”的彻夜狂欢。手动狗头)时隔一年,背后“真凶”现在终于被阿B披露出来——没想到吧,就是 ...

    物联网

    阅读更多
  • windows10专业版系统怎么安装

    物联网

    我们在使用win10操作系统的时候,有的小伙伴在有些情况下可能会进行系统的安装还有重装。那么对于windows10专业版系统怎么安装这个问题,小编觉得我们可以尝试在电脑技术网 Tagxp.com中进行 ...

    物联网

    阅读更多
  • win10uwp是什么意思

    物联网

    我们在使用win10操作系统的时候,只知道有常见的一些系统版本,那么大家对于win10uwp可能还比较陌生。据小编所知,uwp就是通用版的意思,相对于我们熟知的系统,这个指的是软件应用的,也就是在任何 ...

    物联网

    阅读更多

滇ICP备2023000592号-18