ホーム Internet 2025年初,Nvidia的下一代Blackwell平台将登陆Google Cloud

2025年初,Nvidia的下一代Blackwell平台将登陆Google Cloud

今天是Google Cloud在拉斯维加斯的下一站,这意味着一大批新的实例类型和加速器将进入Google Cloud平台。除了新的定制Arm架构的Axion芯片外,今年大部分的新闻都与AI加速器有关,不管是由Google自身还是来自Nvidia。

仅仅几周前,Nvidia宣布了其Blackwell平台。但不要指望Google会很快提供这些机器。对于用于AI和HPC工作负载的高性能Nvidia HGX B200和用于大型语言模型(LLM)训练的GB200 NBL72的支持将在2025年初到来。Google公告中的一个有趣细节是:GB200服务器将采用液冷技术。

这听起来可能有些提前宣布,但Nvidia表示,其Blackwell芯片直到今年年底的最后一个季度才会公开发布。

图片来源:Frederic Lardinois/TechCrunch

Blackwell之前

对于今天需要更多能力来训练LLM的开发人员,Google还宣布了A3 Mega实例。该实例是由Google与Nvidia共同开发,配备了行业标准的H100 GPU,但结合了一种新的网络系统,每个GPU可以提供多达两倍的带宽。

另一个新的A3实例是A3保密,Google将其描述为使客户能够“在训练和推理期间更好地保护敏感数据和AI工作负载的机密性和完整性。”该公司长期以来一直提供加密在使用中的数据的保密计算服务,在这里,一旦启用,保密计算将通过受保护的PCIe加密Intel CPU和Nvidia H100 GPU之间的数据传输。Google表示,无需更改代码。

至于Google自己的芯片,该公司在周二推出了Cloud TPU v5p处理器,这是其自家生产的AI加速器中最强大的,现已正式推出。这些芯片的浮点运算每秒提升了2倍,内存带宽速度提升了3倍。

图片来源:Frederic Lardinois/TechCrunch

所有这些快速芯片都需要一个能够跟上它们的基础架构。因此,除了新的芯片外,Google在周二还宣布了新的AI优化存储选项。Hyperdisk ML目前处于预览阶段,是该公司的下一代块存储服务,根据Google的说法,可以使模型加载时间提高高达3.7倍。

Google Cloud还将推出一系列更传统的实例,由英特尔第四代和第五代至强处理器提供动力。例如,新的通用C4和N4实例将采用第五代Emerald Rapids至强处理器,其中C4侧重性能,而N4侧重价格。新的C4实例现已进入私人预览阶段,而N4机器已经正式推出。

此外,还有一些新的实例处于预览阶段,包括由较旧的第四代英特尔至强处理器提供动力的C3裸金属机器,X4内存优化裸金属实例(也在预览中)以及Z3,Google Cloud的首台面向存储优化的虚拟机,承诺为“领先云计算供应商中的存储优化实例提供最高的IOPS。”

Nvidia在GTC举行的主题演讲中带来了一些惊喜