来源:华尔街见闻

测试结果显示,相比前代英伟达Hopper GPU,GB200 NVL72服务器能帮助Cohere在1000亿参数模型的训练实现高达3倍的性能提升,此外,IBM和Mistral AI也已成为CoreWeave GB200云服务的首批用户。

CoreWeave再度抢占先机,率先部署英伟达GB200系统,AI巨头争相入局。

英伟达今日在其博客上宣布,AI云计算提供商CoreWeave已成为首批大规模部署英伟达GB200 NVL72系统的云服务提供商之一。Cohere、IBM和Mistral AI已成为首批用户。

根据最新MLPerf基准测试,这些系统提供了前代H100芯片2-3倍的性能提升,将显著加速大模型训练和推理能力。

CoreWeave首席执行官Michael Intrator表示,这一成就既展示了公司的工程实力和执行速度,也体现了其对下一代AI发展的专注:

“CoreWeave的设计就是为了更快速地行动——我们一次又一次地证明了这一点,始终是首批大规模运营最先进系统的公司。”

英伟达超大规模与高性能计算(HPC)副总裁Ian Buck表示:

“世界各地的企业和组织正在竞相将推理模型转化为代理型人工智能应用,这将改变人们的工作和娱乐方式。”

“CoreWeave对英伟达GB200系统的快速部署提供了人工智能基础架构和软件,使人工智能工厂成为现实。”

华尔街见闻此前提及,近年来英伟达和CoreWeave通过投资、供应和反向租赁等方式构建了“亲子关系”,成就了后者的迅速崛起。2023年,英伟达承诺在四年内向CoreWeave支付13亿美元,租回自己生产的芯片。

近日,CoreWeave还宣布与OpenAI合作,进一步巩固了其作为AI基础设施提供商的领先地位。

这一系列动作表明,在AI算力资源持续紧缺的背景下,能够提供最先进芯片组的云服务提供商将在市场竞争中仍占据有利位置。

性能突破:新基准刷新行业记录

去年,CoreWeave就是首批提供英伟达H100和H200 GPU的供应商之一,也是最早演示英伟达GB200 NVL72系统的公司之一。

CoreWeave最近在采用英伟达GB200 Grace Blackwell超级芯片的AI推理测试中创下了新的行业记录,这一成绩已发布在最新的MLPerf v5.0结果中。

值得注意是,在没有特定优化Blackwell架构的情况下,相比前代英伟达Hopper GPU,GB200 NVL72服务器能帮助Cohere在1000亿参数模型的训练实现高达3倍的性能提升。

据介绍,通过进一步优化利用GB200 NVL72的大统一内存、FP4精度和72个GPU的NVLink域(每个GPU都连接起来协同运行),Cohere正获得显著更高的吞吐量,缩短首个令牌(computation tokens)和后续令牌的生成时间,提供更高性能、更具成本效益的推理。

风险提示及免责条款

市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。