NVIDIA将这次发布的GH200 NVL32针对生成式AI等应用设计,并定位为机柜尺寸的GPU。它在单一机柜内集成32组GH200Grace Hopper Super Chip,并通过NVLink和NVSwitch技术互联,组成具有4.5TB HBM3e高带宽内存,以及20TB内存总量的大型运算节点,并采用水冷散热方案。
AWS(Amazon Web Services)将成为首间将全新多节点GH200导入云计算的云计算服务供应商,可将32组GH200组成单一Amazon Elastic Compute Cloud(Amazon EC2)执行实例,并推出采用GH200 NVL32的DGX Cloud人工智能训练即服务(Training as a Service,TaaS),让开发者可以在单一执行实例中使用容易极大的共享内存,加速训练生成式人工智能和超过1兆组参数的大型语言模型(LLM)。