更新时间:2026-03-10 01:09 来源:牛马见闻
36颗Vera CPU与72颗GPU的配置亮相AMD是否能拿下半数的数据中心x86 CPU市Vera CPU重兵入局
当凭借驱)动AI的专[用GPU赚得盆满钵满的英伟达宣布“看好CPU赛道的潜力。”当Vera Rubin平台带着36颗Vera CPU与72颗GPU的配置亮相,当国际机构集体预判CPU供需缺口将持续扩大,一个明确的信号已然浮现:AI算力的核心叙事逻辑,正在从“GPU单极主导”向“CPU+GPU协同共生”演进。
01CPU的重要性,不亚于GPU
黄仁勋对CPU的押注,绝非临时起意,在过去很长一段时间中,英伟达都对PC市场充满渴望。
早在2011 年的CES上,英伟达正式公布Project Denver(丹佛计划),宣布基于 ARM 架构开发定制CPU 核心。之后在2014年与2018年,英伟达陆续发布移动处理器Tegra K1、用于自动驾驶与边缘计算Carmel CPU 核心等。
2021年4月英伟达发布基于Arm架构的Grace CPU,标志着这家GPU巨头正式杀入服务器CPU战场。Grace并非传统意义上的通用处理器,而是专为AI、HPC(高性能计算)和大规模数据处理而设计的“加速型CPU”。
近日,Meta宣布与英伟达公司达成新的采购协议,将购买数百万颗英伟达下一代Vera Rubin图形处理器和同等数量的Grace中央处理器,以支持其人工智能发展战略。据悉,Meta已经是英伟达最大的客户之一,多年来一直在使用英伟达的GPU,但这项新协议表明两家公司将建立更深层次的合作伙伴关系。值得注意的是,Meta还承诺大量采购英伟达的Grace CPU,并将其作为独立芯片部署,而不是与GPU配合使用。
英伟达表示,Meta将成为首家独立部署Grace CPU的公司,从明年开始,还将部署下一代Vera CPU。值得注意的是,Vera CPU是英伟达推出的新一代AI芯片,属于其自研Arm架构CPU系列,于2026年1月6日在CES 2026上官宣,并预计于2026年3月16日至19日在GTC 2026上正式发布,计划于2026年下半年开始向微软等首批客户交付。该芯片旨在为下一代大模型训练与推理提供支持 。
在此前的拉斯维加斯消费电子展上,黄仁勋还表示:"英伟达跻身全球顶级CPU制造商行列不会令人意外。"
在AI算力被GPU刷屏的这几年,市场很容易形成一个惯性认知:AI = GPU。但走到2026年,一个被云厂商、大模型公司用真金白银验证的结论正在成为共识:CPU在数据中心的重要性,丝毫不亚于GPU。
为什么过去几年行业只追捧GPU,却把CPU当成 “配角”?核心原因很简单:AI还处在 “训练为王” 的阶段。2023—2025年,行业重心是把大模型 “训出来”,比拼的是极致并行算力、矩阵乘法效率,GPU凭借架构优势,天然成为训练阶段的绝对主角。此时CPU只承担基础调度、数据搬运等辅助工作,自然不被舆论聚焦。
但从2025下半年到2026年,AI产业完成了一次关键范式切换:从训练为主,转向推理、执行、规模化落地为主。Agent、RAG、工具调用、多模态交互、强化学习环境搭建…… 这些商用化场景,不再是单纯的并行计算,而是大量逻辑判断、串行执行、系统调度、I/O 管控、内存调度、任务分发。这些恰恰是GPU的短板、CPU的主场。
行业数据已经给出答案:在典型 Agent 工作流中,CPU处理延迟占比高达90%,成为端到端性能的头号瓶颈。过去“堆 GPU 就能提效” 的逻辑彻底失效 ——CPU跟不上,GPU利用率就上不去;CPU规格不够,集群就开不满。2026 年开年Intel、AMD服务器CPU集体涨价、产能被抢空,正是这一趋势的直接体现。
目前英特尔和AMD的CPU普遍缺货,服务器CPU交货周期最长可达6个月,消费级CPU也面临延迟和涨价。英伟达选在这个节点重兵投入服务器CPU,既是补全自身全栈算力版图,也是直击 x86 阵营的供给软肋。它的逻辑非常清晰:
不做通用CPU,而是为AI集群量身定制,和GPU、DPU、高速互联深度协同;解决行业最痛的问题:CPU瓶颈导致GPU利用率上不去、集群跑不满;用一体化方案,对冲当前x86 CPU缺货、交付不稳定的风险。
这也意味着,数据中心算力竞争正式从“单芯片比拼” 进入 “全系统较量”。
02CPU缺货了,格局也变了
再看一下当前服务器CPU市场的竞争格局。
过去二十年,服务器CPU市场几乎被英特尔和AMD牢牢掌控。凭借成熟的x86指令集、庞大的软件生态以及与操作系统、中间件的高度兼容性,x86架构成为企业级市场的默认选择。尤其在通用计算、数据库、虚拟化等场景中,x86 CPU的综合优势无可替代。
但这一双寡头格局正加速生变,英特尔长期以来的主导地位持续承压,AMD 则凭借技术突破实现份额稳步攀升。
上图显示,截至2025年,AMD在服务器市场的出货份额已接近30%,而英特尔虽仍占据主导地位,但份额较高峰期有所回落。这一变化源于多重产业因素,而非单一技术优劣。
业内人士向半导体产业纵横表示:
首先,客户需求正在分化。
超大规模云服务商对高核数、高能效、高I/O带宽的需求快速上升。AMD自EPYC系列起采用Chiplet(小芯片)架构,结合台积电先进制程,在96核以上产品上实现较快落地,契合了部分云厂商对“每瓦性能”和横向扩展能力的偏好。但这并不意味着AMD毫无短板。该人士表示:“AMD的Chiplet小芯片架构,虽然能快速堆核心数,但不同小芯片之间的通信延迟偏高,这是它一直以来的问题。”业内人士补充道,而英特尔的优势恰恰在这里——核电通信延迟低,再加上多年积累的软件和硬件生态,适配性更好,这也是它在当前AI浪潮中能稳住份额的关键。
其次,价格策略,则成为AMD撬动市场的另一把“钥匙”
“整体来看,AMD的服务器CPU价格会比英特尔略低,尤其是在渠道市场,AMD的策略更激进。”业内人士透露,AMD对老型号产品会给出大幅折扣,导致市场上充斥着高性价比的旧款AMD CPU,而英特尔则坚持稳健的价格控制,不轻易降价。这种价格差异,也让不同客户群体做出了不同选择。互联网大厂和主流服务器厂商,更看重技术迭代,会紧跟英特尔的新品节奏,优先采购最新款或上一代产品;而广大中小客户、渠道装机市场,更在意性价比,大量选用AMD的旧型号产品。除此之外,工控、IoT、边缘端等细分领域,虽有部分客户仍在使用老旧产品,但这部分市场对整体格局的影响相对有限。
最后,供应链策略差异也正在显现。
作为长期占据行业龙头的英特尔,曾凭借自主制造体系(IDM模式)稳稳握住技术主动权,但2021年前后,其制程工艺的迭代突然“慢了下来”。从而导致新品推出节奏明显脱节,比AMD慢了半拍甚至一拍,很多客户等不及,就转头选择了AMD的新品。”业内人士解释道。
反观AMD,走了一条与英特尔截然不同的路——放弃自主制造,全部交由台积电代工。这一选择恰好踩中了先进制程的风口,从7nm到如今的3nm,AMD紧跟台积电的工艺节奏,产品性能和能效比一路提升。不过近几年,英特尔 18A 制程工艺日趋成熟,正逐步削弱制程层面带来的性能差距。
对于市场普遍关注的“未来5-10年,AMD是否能拿下半数的数据中心x86 CPU市场”的疑问,业内人士给出了明确答案:“大概率不会。”在他看来,双方的优势领域已经形成互补,且难以相互替代。
“AMD的高核心数适合云计算、大数据这类规模化场景,而英特尔的低延迟和成熟生态,在AI、金融科技等高端领域不可替代。”他进一步分析,如今英特尔的制程已经基本回归先进水平,短板主要在产品设计上,目前也在不断优化产品理念,应对AMD的竞争;而AMD则需要解决延迟问题,同时补齐软件生态的短板,才能进一步提升份额。
03CPU市场的变量,不止英伟达
除却英伟达,CPU底层架构的博弈正悄然重塑服务器市场的长期格局。
此前x86架构在全球服务器CPU市场占有率同样高达90%,然而根据市场研究机构Dell'Oro Group最新报告,2025年第二季度,ARM架构处理器在服务器CPU市场份额已达到25%,相比去年同期的15% 大幅提升了10个百分点。 这一显著增长主要得益于英伟达基于ARM架构的Grace平台的大规模交付,以及大型科技企业定制芯片的加速部署。
比如,亚马逊网络服务凭借其Graviton系列开创了超大规模ARM服务器处理器,首次发布于2018年。该公司认识到,在其数据中心运行的大部分工作负载不需要x86处理器提供的最大单线程性能,但将从改进的能效和成本效益中获益巨大。到2024年,AWS表示其大约一半的新CPU部署使用Graviton处理器而不是x86芯片。
谷歌随后推出了其Axion处理器,于2024年宣布,声称与同类x86处理器相比功耗降低百分之六十,同时为典型云工作负载提供同等性能。
究其原因,首先,传统x86架构在高负载下往往伴随显著的能源消耗,而ARM通过精简指令集与更高效的芯片设计,在同等算力下大幅降低单位能耗,为云服务提供商节省了持续性的运营成本。其次,其灵活的许可模式则彻底打破了芯片授权的垄断逻辑——云厂商无需支付高额授权费用,即可自由定制处理器架构,深度适配自身工作负载,将算力从"通用适配"升级为"场景定制"。这种模式不仅重构了芯片创新的参与门槛,更让云服务从"购买硬件"转向"定义算力",真正实现按需优化。最后,低成本优势则进一步消除了算力普及的障碍,使云服务在经济性上更具竞争力。
不止是ARM架构,基于 RISC-V 架构的服务器 CPU 也在迅速“破圈”。RISC-V架构有着开源、指令精简和可扩展的优势,在注重能效比的物联网领域收获颇丰。不过,这并不意味着RISC-V无法进军有更高性能要求的PC和服务器市场。
关于RISC-V 架构的优势,笔者总结主要有四点:
第一点,它是开源的,这意味着它自主可控。第二点,它是可定制化的,如此便十分契合专用服务器的定制化需求。第三点,它的成本更低,目前RISC-V IP核的授权费和版税只有ARM的1/3-1/4。如果采用RISC-V方案,能很大程度降低芯片、服务器厂商的成本。第四点,RISC-V存在一些独特的性能优势,比如其有能力在单位面积上提供更高性能和核数,这使其在有着高效能需求的AI等应用中更加高效。
如今,已有多家公司的RISC-V架构服务器CPU芯片亮相。比如阿里巴巴的玄铁RISC-V CPU,以及睿思芯科的全自研高性能RISC-V服务器芯片等。
阿里云无影事业部总裁张献涛曾表示“我觉得经过5-8年的发展,未来在服务器里面的大规模应用应该是不成问题的。很多公司对它的期待很高,一定会加速进程往前发展的。RISC-V架构从低功耗IoT终端大规模应用到数据中心,大概5-8年内就能实现。”
微核芯CEO郇丹丹表示高性能计算场景才是打开RISC-V市场空间的关键。“过去RISC-V大多都是面向AIoT领域,低成本低性能领域已经是红海市场,作为新兴指令集的RISC-V产业要想发展壮大,只有伴随着数据中心在高性能领域(服务器、AI计算)的新兴应用成长才是打开市场空间的关键。”
如今,英伟达携Grace、Vera CPU重兵入局,ARM架构凭高能效与定制化优势快速崛起,RISC-V则以开源之力打破垄断壁垒,曾经由x86双寡头主导的格局被彻底打破。随着AI产业从“训练为王”转向“推理落地”,CPU的核心价值愈发凸显,算力竞争也从单芯片比拼升级为全系统较量。
Copyright ® 版权 所有:吉林日报
违法和不良信息举报邮箱:dajilinwang@163.com 违法和不良信息举报: 0431-88600010
ICP备案号:吉ICP备18006035号 网络经营许可证号:吉B-2-4-20100020
地址:长春市高新技术产业开发区火炬路1518号 爆料电话:0431-88601901