NVIDIA终于公开了备受期待的“安培(Ampere)”的架构,这个核弹级的GPU芯片主要面对的并不是PC游戏市场,而是人工智能、高性能计算、大数据等等尖端领域。
在公开了新的架构的同时NVIDIA还发布了相应的第三代工作站“DGX A100”,按照NVIDIA的说法叫做“个人超级计算机”,可以支持在桌面端进行AI研究,并扩展到云端。
DGX A100内部配备了八颗安培架构的Tesla A100 GPU,每一颗整合40GB HBM2高带宽显存,总容量达320GB。
每颗GPU均支持多达12路的NVLink互连总线,GPU-GPU带宽高达600GB/s,可保证八颗GPU彼此完全互连,同时还有6颗NVIDIA NVSwitch芯片,双向带宽高达4.8TB/s。
不过从示意图上可以看出,每颗GPU周围其实有六颗HBM2显存芯片,很显然有一颗没有启用,剩下的五颗单颗容量8GB从而组成40GB。这意味着,A100核心现在应该也是屏蔽了六分之一的规模。
网络方面配备了刚完成收购的Mellanox的解决方案,包括八颗单端口ConnectX-6 VPI用于聚类,峰值性能200GB/s,以及一颗双端口ConnectX-6 VPI用于数据与存储网络。
有趣的是,搭配的CPU处理器这次抛弃了Intel至强,改为使用两颗AMD二代霄龙(Rome),且是顶级的64核心型号,同时搭配1TB DDR4内存、15TB PCIe 4.0 NVMe SSD固态硬盘。