麦享科技3月17日消息,在圣何塞举办的NVIDIA GTC 2026大会上,Intel正式宣布一项重磅合作,其Xeon 6(至强6)处理器将成为NVIDIA下一代旗舰AI服务器系统DGX Rubin NVL8的主机CPU。
这一合作让两家企业在x86架构上的合作更进一步,此前在基于DGX B300 Blackwell的平台上,双方就已采用Xeon 6776P处理器建立了x86架构合作,这也意味着Intel成功“抱上”NVIDIA的大腿,在AI服务器领域站稳了脚跟。
据悉,DGX Rubin NVL8是NVIDIA新一代旗舰AI服务器系统,主打智能体AI和推理系统等新兴应用场景。在这套系统中,主机CPU的作用至关重要,主要负责任务编排、内存管理、调度,以及向GPU加速器传输数据。
而随着AI推理工作负载逐渐向智能体AI和推理系统转型,这些工作对单核性能和内存带宽的要求也越来越高。

Intel方面表示,至强6处理器通过内存容量、带宽和I/O性能的综合提升,刚好能满足这些需求。这款处理器所在的平台可支持高达8TB的系统内存,Intel称这一点对支持键值缓存不断扩大的大型语言模型来说尤为关键。
借助MRDIMM技术,其内存带宽较上一代提升了2.3倍,能显著提升数据传输到GPU加速器的速度。
与此同时,PCIe 5.0通道可实现高带宽的加速器连接,Intel推出的“优先核心睿频加速”(Priority Core Turbo)功能,还能把强劲的单线程性能集中用于编排、调度和数据传输任务,即便工作负载变得更复杂,也能保证GPU维持高利用率。
在安全和兼容性上,至强6处理器通过Intel信任域扩展(TDX),能为CPU到GPU的整个数据路径提供安全防护。其中TDX技术会通过加密反弹缓冲区,增加基于硬件的隔离和认证功能,刚好能满足AI推理在数据中心、云端、边缘等多场景部署时,对端到端机密计算的需求。此外,至强6还新增了对NVIDIA Dynamo推理编排框架的支持,借助这一框架,同一集群内的CPU和GPU资源可实现异构调度。
“在这个新时代,主机CPU的作用至关重要。”Intel公司副总裁兼数据中心战略项目总经理杰夫·麦克维表示,它直接决定着GPU加速系统的编排效率、内存访问速度、模型安全性以及吞吐量。
Intel还提到,至强处理器成熟的x86软件生态、丰富的企业部署经验,以及与现有AI软件栈的良好兼容性,正是NVIDIA选择它的关键原因。
此次双方的合作,沿用了与DGX B300相同的架构基础,让Blackwell和Rubin两代产品实现了平台层面的连续性,有望推动AI推理技术在数据中心、云端、边缘等场景的规模化落地。

麦享科技






麦享生活微信小程序   麦享生活微信公众号
评论前必须登录!
注册