NVIDIA 推出新一代 AI 平台 Vera Rubin
头像 Song老师不是AI 2026-03-18 12:07:34    发布
5374 浏览 61 点赞 9 收藏

3 月 17 日在美国加州圣何塞举行的 2026 年 GTC 大会上,英伟达为推动智能体 AI(Agentic AI)发展,发布 Vera Rubin AI 平台。

英伟达创始人兼首席执行官黄仁勋强调,Vera Rubin 是一次代际飞跃,标志着其史上最大规模基础设施建设的开端,全面覆盖从大规模预训练到实时智能体推理的 AI 全生命周期。


此举标志着英伟达正式跨入传统 CPU 直销赛道,不仅直接与英特尔、AMD 展开正面交锋,更向全球云计算巨头自研的 Arm 架构处理器发起挑战。


根据英伟达博文介绍,为大幅提升基础运算效率,Vera CPU 单颗芯片配备 88 个核心与 144 个线程。该芯片采用英伟达深度定制的 Arm v9.2-A Olympus 核心,其指令级并行度(IPC)实现了惊人的 1.5 倍代际飞跃。

同时,该架构首发引入了“空间多线程”黑科技,通过物理隔离流水线组件,让多个线程真正在单核上同时运行,彻底告别了传统多线程技术资源排队造成的算力损耗。


在核心算力层面,新一代 NVL72 机架实现了效率的突破性提升。该机架通过 NVLink 6 连接 72 块 Rubin GPU 与 36 块 Vera CPU。


与上一代 Blackwell 平台相比,该系统仅需四分之一的 GPU 即可完成混合专家大模型(MoE)训练,同时每瓦推理吞吐量提升高达 10 倍,单 Token 成本降至十分之一。


此外,专为验证 AI 模型结果设计的 Vera CPU 机架集成了 256 块液冷 CPU,其运行效率达到传统 CPU 的两倍,速度提升 50%。


为应对智能体系统低延迟和长上下文的需求,英伟达推出了 Groq 3 LPX 推理加速机架。该系统包含 256 个 LPU 处理器,与 Vera Rubin 结合后,每兆瓦推理吞吐量飙升至最高 35 倍。


在数据存储方面,全新 BlueField-4 STX 机架构建了 AI 原生存储基础架构。借助全新的 DOCA Memos 框架,该系统能够高效处理大型语言模型生成的海量键值(KV)缓存数据,在大幅降低能耗的同时,将推理吞吐量提升最高 5 倍,从而实现更快速的 AI 多轮交互。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。
分类
生活服务
头像

Song老师不是AI

我还没有写个人简介......

15

帖子

0

提问

101

粉丝

关注
最新发布
热门推荐
地址:北京市朝阳区北三环东路三元桥曙光西里甲1号第三置业A座1508室 商务内容合作QQ:2291221 电话:13391790444或(010)62178877
版权所有:电脑商情信息服务集团 北京赢邦策略咨询有限责任公司
声明:本媒体部分图片、文章来源于网络,版权归原作者所有,我司致力于保护作者版权,如有侵权,请与我司联系删除
京ICP备:2022009079号-2
京公网安备:11010502051901号
ICP证:京B2-20230255