今天,Amazon SageMaker AI 宣布在 SageMaker HyperPod 和训练作业中支持 P6e-GB200 UltraServers。借助 P6e-GB200 UltraServers,您可以在一个 NVLink 域下利用多达 72 个 NVIDIA Blackwell GPU,以万亿个参数的规模加速基础模型的训练和部署。P6e-GB200 UltraServers 有两种大小可供选择:ml.u-p6e-gb200x72(NVLink 内有 72 个 GPU)和 ml.u-p6e-gb200x36(NVLink 内有 36 个 GPU)。 与 P5en 实例相比,P6e-GB200 UltraServers 可在一台 NVIDIA NVLink 下提供超过 20 倍的计算能力和超过 11 倍的内存。在每个 NVLink 域中,您可以利用 360 千亿次浮点运算的 FP8 计算(无稀疏性)和 13.4TB 的总高带宽内存 (HBM3e)。当您在 SageMaker AI 上使用 P6e-GB200 UltraServers 时,您可以获得 GB200 的卓越性能以及 SageMaker 的托管式基础设施,例如安全性、内置容错能力、拓扑感知调度(SageMaker HyperPod EKS 和 Slurm)、集成式监控功能以及与其他 SageMaker AI 和 AWS 服务的原生集成。 UltraServers 现已在达拉斯 Local Zone(“us-east-1-dfw-2a”)通过 SageMaker 灵活训练计划推出,该区域是美国东部(弗吉尼亚州北部)AWS 区域的扩展。如需按需预订 GB200 UltraServers,请联系您的客户经理。借助 Amazon SageMaker AI,您可以使用针对性能和成本进行了优化的完全托管式基础设施,轻松实现大规模机器学习模型训练和部署。要开始在 SageMaker AI 上使用 UltraServers,请访问文档。