ChatGPT的火爆不但拉升了很多芯片公司的股票,还为半导体行业带来实际的实惠。有消息传出,台积电陆续接到英伟达、AMD与苹果的5nm急单,均源自AI服务器平台的需求飙升,有望让原本空闲的5nm产能转为满载。
欢呼声还没有冷却,AMD砍单5nm的消息就相继传来。让人不禁心生疑问,Chatgpt究竟能提振整个芯片行业,还是只为一两家公司的利好?
ChatGPT不是所有人的救世主
消息指出,AMD已经将2023年第二季5nm的 Genoa CPU 晶圆订单削减至仅 30,000 片。原因并不是这款芯片卖得不好,而是整个服务器市场行业萎靡而降低预期。
服务器过去被认为是能给半导体提供驱动力的引擎之一,但是从2022年Q4开始,行业对出货预期就开始趋向保守。有海外投资机构指出,服务器市场上行周期通常持续5~6个季度,然后就会有2~3个季度的下行周期,下行周期已逐步从第三季开始显现,因此会顺势发展到2023第一季。
目前看来,这个判断已经是非常乐观了。TrendForce的研报指出,北美四大云服务供应商都在下修2023年的服务器采购量,并将目标持续下调。 Meta、微软、Google、AWS四家公司的服务器采购量由原先估的年增6.9%下修至4.4%,将拖累2023年全球服务器整体出货量年增幅降至1.87%。
Meta的服务器采购量降幅为3.0%,并不排除进一步下降的可能。在经济大环境不景气之外,Meta的电商业务在疫情之后依旧受到冲击,加上ODM厂库存仍高,恐将影响后续扩建动能。
微软的服务器采购量由年增16.9%下修至13.4%,但仍保持了双位数的增长。主要影响采购量的原因包括了裁员给SaaS业务营收的影响;企业支出收敛,使IaaS、PaaS云端业务成长受限;供应链物料去化不如预期,导致新平台Gen 9量产规模缩限等。
Google将服务器的年采购量降至了5.2%。其中包含两大原因,一是因为采用Intel Sapphire Rapids与AMD Genoa的新机成本仍然过高,二也是因为疫情影响了其云端营收的成长,使Google不得不降低服务器的扩充节奏。
AWS服务器采购量年增幅也降至6.2%,其主要考量是Graviton机型的需求是否放缓,背后也反映了整个大环境的疲软。
既然云服务器厂商都对后市看低,那ChatGPT所带来的订单是否只是昙花一现。对于这个问题,现在还没有明确的定论,但可以确定的是,获益者依然存在。
按照通常的逻辑,ChatGPT的火爆需要大型数据中心的支撑,必然带来整个服务器市场的火爆。但事实上真正的获利者可能只有AI服务器。
AI服务器专为AI运算而生,与普通服务器最大的不同就是配置的GPU数量。普通服务器一般是单卡或双卡,但AI服务器为了应对大量的计算,一般配置四块以上的GPU卡,甚至要搭建AI服务器集群。
数据显示,AI服务器的成本将从18.2亿美元提升到127.6亿美元,年复合增长率将高达91%,总体需求将从2023年的9100台提升到2026年的63800台,并一直维持高增长态势。
某服务器生产商指出,今年预计50%的产品为AI服务器,而去年这一比例只为20%,这也证明了AI服务器的火爆。
目前只有一个获益者
AI服务器也包含了CPU和其他加速芯片,但用量最大仍是GPU,而全球AI GPU的霸主正是英伟达公司。
实际上,来自数据中心服务器方面的营收一直是英伟达业绩的增长点。在2023年1月29日刚结束的2023财年第四财季上,英伟达公布的营业收入为60.51亿美元,同比-21%/环比+2%;毛利率为63.3%,游戏毛利率下滑部分被汽车、数据中心的贡献抵消,库存费用降低使毛利率环比抬升;营业利润同比-68%/环比+109%;净利润同比-53%/环比+108%;EPS为0.57美元/股,同比-52%/环比+111%。
数据中心是最大的亮点,其营业收入同比+11%/环比-6%,增长主要由美国云服务提供商推动,而得益于超大规模客户的强劲增长,2023财年营收同比+41%。
ChatGPT的背后自然不能缺少英伟达的身影。据悉,ChatGPT Beta版本使用了10000个英伟达GPU训练模型,新一代GPT-5大模型正在25000个英伟达GPU上训练。
花旗集团的分析师Atif Malik做出预估,ChatGPT可能会在未来12个月内为英伟达带来30亿到110亿美元的销售额。以最高值计算,对比2023财年的整体营收,由生成式AI应用带来的营收最多将占据40.8%的份额。
挖矿潮虽然消退,但英伟达又凭借数据中心GPU需求爆发再获能量。其A100及H100芯片分别得到众多大客户的订单,高端H100更是供不应求。其中,NVIDIA A100及H100同时拿下甲骨文长期大单,亦与Microsoft展开多年的合作计划,双方携手打造全球最强大的AI超级电脑,Microsoft Azure平台将陆续加入上万个A100/H100 GPU。
如果说ChatGPT能使哪家芯片公司直接受益,最明确无误的回答就是英伟达。瑞银(UBS)分析师在一份报告中表示,英伟达GPU芯片是唯一可用于打造大规模AI语言系统的产品。
英伟达的GPU主要用于AI模型的训练。虽然训练芯片的数量只占整个AI芯片的10%-20%,但其价格昂贵,价格达到1000美元甚至10000美元级别,而推理芯片的价格则只有100 美元以上。这就意味着英伟达获得了行业大部分的利润,就如同苹果之于智能手机一样。
英伟达并不是这个市场上唯一的参与者,AMD 也生产 GPU,但在 AI GPU 市场的份额相当小。微软的竞争对手谷歌会选择使用张量处理单元(TPU)来进行自己的训练,也可能会使用替代芯片,比如AMD的MI300,但都不会威胁英伟达在这个市场的地位。
让英伟达保持垄断地位的不单是芯片的性能,还有其苦心经营多年的CUDA生态与用户使用惯性。
从满足易部署(用户开箱即用)、层次灵活的开发接口(OpenCL、OpenGL类似的一种API)、满足不同领域开发者编程语言(Fortran, C/C++, Python)、品类齐全的工具集(GDB、Nsight、Memcheck等)、第三方工具和软件库等多个方面,CUDA都没有明显的竞争者。
CUDA已经形成群聚效应。用户在使用CUDA的过程中,会产生大量基于CUDA的入门文档,研究成果,学术论文,开发类库以及技术讨论,使得开发人员不断被吸引而来,总数量已经累积到 300万。
用户要想转换平台,迁移成本将非常高。企业和研究人员之前的代码,测试基准结果都是基于CUDA平台上的,一旦迁移就意味着代码重写,重新编译,之前的测试结果要重新校准,将带来极其高的成本。此外,云端训练与终端部署的软件生态与工具链的统一,也使得CUDA拥有更大的替换难度。
并且,同样是提供AI用GPU的AMD,至今也未开发出被广泛采用的 CUDA 替代品,就更别提其他新进的AI初创公司了。
如今,英伟达不单想一个简单的方案提供商,还要趁这股热潮实现更大的野心。黄仁勋就表示,英伟达正在与主要云服务商进行合作,提供英伟达AI云服务,从而让企业可以轻松访问世界上最先进的AI平台。据悉,眼下英伟达已经在通过甲骨文提供新版云服务,很快将通过微软和谷歌提供AI云服务。
无可否认,ChatGPT确实为芯片业带来新的商机,但那还是一个较遥远的目标。著名半导体分析师陆行之警告那些AI芯片公司,如果ChatGPT所带动的人工智能芯片销售,几年内只能贡献少于5%营收,危险就即将到来。
在国内市场,虽然英伟达的部分产品被禁,但是其依然拥有庞大的用户群,国内厂商要想抓住ChatGPT带来的机遇,还需要加倍努力。