界面新闻记者 | 李彪
界面新闻编辑 | 宋佳楠
北京时间6月2日晚,台北国际电脑展(Computex)开幕前夕,英伟达创始人兼CEO黄仁勋进行了一场名为“揭开新工业革命”的主题演讲。他花了两个小时详细阐述了自己对“GPU加速AI计算革命”及“AI工厂”的理解。
面对全场6500名观众,他在台上公开展示了该公司最强性能产品GB200主板。这块主板搭载两颗Blackwell B200 GPU芯片、一颗Grauce CPU芯片,通过其互联技术组合为一体。该产品首次亮相是在今年3月份的英伟达GTC大会上。据黄仁勋透露,Blackwell产品已全面投产,明年将继续推出增强版的Blackwell Ultra AI芯片。
黄仁勋认为,随着CPU扩展速度放缓,最终会基本停止,然而需要处理的数据继续呈指数级增长,最终导致计算膨胀和计算成本的提升。
GPU将是改变这一切的关键。对比英伟达2016年发布的Pascal GPU,Blackwell GPU的计算能力(对应人工智能浮点运算能力)增长了1000倍,几乎“超越了摩尔定律在最佳时期的增长”。
计算能力提高的同时,成本却在不断下降。原先使用Pascal产品训练一个GPT-4模型,它将消耗高达1000吉瓦时(1吉瓦时等于1百万千瓦时)的能量,而利用Blackwell产品仅需3吉瓦时。
按照黄仁勋一贯坚持的“买得越多,省得越多”的说法, GPU和CPU组合在一起,实现了高达100倍的加速计算,同时功耗仅增加三倍,换算下来平均单位性能比单独使用CPU提高25倍,显著起到了节能、降成本的效果。
演讲过程中,黄仁勋还亲自搬上一台体型更大的DGX服务器。这台服务器上连接了8个Blackwell GPU,采用空气冷却技术散热。目前全球抢购的AI服务器都用到这款产品,也是各大数据中心的核心设备。
根据黄仁勋的设想,随着人工智能模型继续扩大,对GPU性能的要求也将越来越高,传统数据中心将进化为“AI工厂”,而工厂的基石便是超级GPU。
“超级GPU”主要走的是互联化、集群化的路线,通过英伟达的NVLink互联技术将越来越多的GPU连接起来,组成一个单一的、超大规模的GPU。在其现场展示的MGX数据中心方案中,一个“超级GPU”将容纳共计72个GPU,性能提升了9倍,但功率仅增加了10倍,能够容纳参数达到数十万亿的AI大语言模型。黄仁勋认为, 这种超级GPU“才是GPU真正的形态”。
据其介绍,众多BlackWell系统集群组成的“AI工厂”包含3.2万个GPU,面积比一个篮球场更大。
在这次演讲中,黄仁勋还重点介绍了英伟达芯片产品的年度升级路线图,公司未来将坚持“一年迭代一次新架构”的路线,打破了摩尔定律,以往通常是每两年更新一代。每年迭代的新架构也将覆盖整个数据中心GPU产品线。
他还首次对外公布了下一代GPU 、CPU架构的名称。下一代CPU名为“Vera”,GPU名为“Rubin”,命名灵感来源于宇宙暗物质研究先驱、美国女天文学家Vera Rubin。
早在一个月前,业内就有爆料称,英伟达下一代R系列AI芯片或将采用台积电3纳米制程工艺,使用CoWoS-L封装技术,搭载新一代的HBM4高带宽内存技术,有望在2025年第四季度实现大规模生产。
此外,黄仁勋还在这次演讲中介绍了英伟达一系列新产品服务的落地情况,包括帮助企业部署AI大模型的NIM云原生微服务、专为AI打造的新型以太网Spectrum-X,以及英伟达开发的机器人技术平台Isaac等等。
这位CEO也特别提到了人工智能与机器人的结合,认为机器人技术的应用远不止于人形机器人,“机械化将成为常态,工厂将全面实现自动化,机器人将协同工作,制造出一系列机械化产品。”