英伟达发布超长上下文推理芯片Rubin CPX 助力AI算力效率升级

2025年9月10日
news

(图片来自网络)

财联社9月10日讯(编辑 史正丞)全球人工智能算力芯片龙头英伟达宣布推出专为长上下文工作负载设计的专用GPU Rubin CPX,旨在翻倍提升当前AI推理运算的工作效率,尤其适用于编程、视频生成等需超长上下文窗口的应用。


英伟达CEO黄仁勋表示,Rubin CPX是首款专为需一次性处理大量知识(数百万级别tokens)并进行人工智能推理的模型而构建的芯片。需注意Rubin是英伟达明年发售的下一代顶级算力芯片,基于Rubin的CPX预计2026年底出货。


下一代英伟达旗舰AI服务器全称NVIDIA Vera Rubin NVL144 CPX,集成36个Vera CPU、144块Rubin GPU和144块Rubin CPX GPU。搭载Rubin CPX的机架在处理大上下文窗口时,性能比当前旗舰机架GB300 NVL72高出最多6.5倍。下一代机架将提供8 exaFLOPs的NVFP4算力,比GB300 NVL72高出7.5倍,单个机架提供100 TB高速内存和1.7 PB/s内存带宽。


英伟达通过分拆推理计算负载为上下文阶段与生成阶段,针对性优化计算与内存资源,显著提升算力利用率。Rubin CPX针对“数百万tokens”级别的长上下文性能优化,具备30 petaFLOPs算力与128GB GDDR7内存。预计约20%的AI应用会受益,如解码10万行代码更高效、视频处理延迟降低等。


英伟达计划以两种形式提供Rubin CPX:与Vera Rubin同托盘安装,或单独出售对应机架的CPX芯片,匹配Rubin机架配置。

(声明:该内容经AI精编) 查看原网页

精彩评论(10)

  • 网友10 2025-09-10 05
    对科技发展感兴趣,这个芯片以后应用起来方便我们使用更多AI工具
  • 网友9 2025-09-10 05
    这种技术进步可能带动新项目,以后做AI相关业务有优势了
  • 网友8 2025-09-10 05
    以后用AI做事情应该更快了,算力强了就好
  • 网友7 2025-09-10 05
    从技术细节看,这种分阶段设计能优化资源,对深度学习推理场景来说是个创新方向
  • 网友6 2025-09-10 05
    感觉芯片越来越厉害了,以后用AI工具会更顺,这种技术进步超有趣
  • 网友5 2025-09-10 05
    提升算力效率能帮我们降低成本,这种芯片对数据中心收益有帮助,值得关注
  • 网友4 2025-09-10 05
    这对我们写代码生成、处理大量数据的场景很有用,能提升效率,很期待产品落地
  • 网友3 2025-09-10 05
    Rubin CPX的设计很巧妙,分阶段优化算力,对AI推理场景很友好,期待实际应用效果
  • 网友2 2025-09-10 05
    现在科技发展真快,这个芯片应该能让电脑干更多事,以后用着方便
  • 网友1 2025-09-10 05
    这个芯片对以后用AI做项目很有帮助,算力提升后能处理更多数据啦
查看“英伟达发布超长上下文推理芯片Rubin CPX 助力AI算力效率升级”相关搜索 >

最新新闻

An unhandled error has occurred. Reload 🗙