NVIDIA GPU服务器平台(主要是AI/HPC服务器,如DGX、HGX、NVIDIA Certified Systems)中,Intel CPU(Xeon)占比显著高于AMD CPU(EPYC),但AMD份额正在稳步上升。
整体服务器CPU市场中,2025年Q4 Intel单位份额约71%,AMD约28.8%(营收份额AMD更高,达41.3%);
在NVIDIA GPU密集型AI服务器中,Intel的实际部署占比可能更高(估计60-80%+,具体取决于OEM和 hyperscaler),尤其在高端设计和企业级部署中。
整体x86服务器市场:
Intel仍占主导(单位份额70%+),AMD从几年前的低位快速增长到近30%,营收份额更接近甚至在高端部分反超。
这反映AI驱动的数据中心扩张中,AMD在高核数、高性价比部分获利更多。
NVIDIA GPU服务器特定平台:
Intel占比更高。NVIDIA的DGX H100/H200/B200等主流系统多采用Intel 4th/5th Gen Xeon;
HGX和NVIDIA Certified Systems同时支持Intel Xeon和AMD EPYC,但实际出货和参考架构中Intel更常见。
OEM(如Dell、HPE、Supermicro、Lenovo)提供的NVIDIA GPU服务器,Intel版本的认证和部署量通常领先。
AMD在云提供商和追求TCO优化的场景中份额更高。
趋势:
AMD份额在2025-2026年继续增长,尤其在8-GPU+高密度AI节点中,
因为其核心数、PCIe通道和能效优势。
但Intel在传统企业、软件优化和reference平台上仍有惯性优势。
GPU服务器的核心瓶颈往往是CPU到GPU的数据喂给(host-to-device bandwidth)、PCIe lanes、稳定性、生态兼容性和平台验证。
以下是Intel占优和AMD崛起的具体原因:
NVIDIA参考架构(Reference Design)和认证偏好:
历史生态、软件栈和企业采购惯性:
Intel Xeon长期是企业数据中心的“标准”,BIOS、驱动、OS(Linux/Windows)、虚拟化(VMware等)和中间件优化更完善。
许多AI框架、编排工具和企业软件对Intel平台的测试/认证覆盖更广。
采购决策中,“已验证的稳定平台”往往优先于纯规格优势,尤其在大规模集群中,任何兼容性问题都会放大成本。
PCIe lanes、带宽和平台稳定性:
AMD EPYC在核心数(单颗可达128+)、PCIe lanes(更多)和内存通道上通常更强,适合高GPU密度(8x GPU+)和I/O密集负载,能更好地喂饱NVIDIA GPU。
但实际部署中,部分AMD平台曾出现GPU-to-Host PCIe流量不稳定或性能波动(尤其是早期Rome/Milan与特定NVIDIA GPU组合),而Intel平台表现更稳定。这导致一些用户/厂商偏好Intel。
新一代AMD EPYC 9004/9005(Turin)在PCIe 5.0、能效和AI推理(如vLLM)上已显著改进,甚至在某些测试中优于同核心数Intel。
成本与TCO(总拥有成本)驱动AMD增长:
AMD在高核数场景下性价比更高、功耗更低,能用更少服务器实现相同性能,节省电力、机架空间和许可费用(例如VMware按核计费)。
AMD宣称某些配置下TCO可低20-30%以上。
云厂商和 hyperscaler(追求极致效率)越来越多采用AMD EPYC + NVIDIA GPU,尤其在训练/推理混合负载中。
AMD在云实例(如阿里云部分GPU规格)和自定义集群中份额更高。
Intel在高端仍有溢价,但面临供应链和价格压力。
其他因素:
Intel在NVIDIA GPU服务器中占比更高,主要源于参考设计惯性、生态成熟度和部署稳定性;
AMD则凭借核心密度、PCIe优势和更好TCO快速追赶,尤其在云和高密度AI集群中。
未来1-2年,随着AMD新平台成熟和OEM更多优化,AMD份额预计继续提升到30-40%+水平。
实际选择取决于具体 workload(训练 vs 推理)、规模和预算——建议看NVIDIA Certified列表和OEM最新报价进行对比。
扫一扫,关注我们最新消息