标签:
导读 当NVIDIA今年早些时候宣布其用于AI数据中心的HopperH100GPU时,该公司发布了高达60TFLOPsFP32和30TFLOPsFP64数据。然而,随着发布的临近
当NVIDIA今年早些时候宣布其用于AI数据中心的HopperH100GPU时,该公司发布了高达60TFLOPsFP32和30TFLOPsFP64数据。然而,随着发布的临近,该公司现在更新了规格以反映更现实的期望,事实证明,人工智能领域的旗舰和最快的芯片现在甚至更快。
计算数量得到提升的一个原因是,当芯片投入生产时,GPU制造商可以根据实际时钟速度最终确定数字。NVIDIA很可能使用保守的时钟数据来提供初步的性能数据,随着生产全面展开,该公司发现该芯片可以提供更好的时钟。
上个月在GTC上,NVIDIA证实他们的HopperH100GPU正在全面生产,合作伙伴将在今年10月推出第一波产品。还确认Hopper的全球推广将包括三个阶段,第一个阶段将是NVIDIADGXH100系统的预购,以及直接从NVIDIA向客户提供免费实验室,这些系统包括戴尔的PowerEdge服务器等系统,现在可在英伟达启动板。
NVIDIAHopperH100GPU规格一览
因此,按照规格,NVIDIAHopperGH100GPU由一个巨大的144SM(流式多处理器)芯片布局组成,总共有8个GPC。这些GPC共有9个TPC,每个TPC进一步由2个SM单元组成。这使我们每个GPC有18个SM,而在完整的8个GPC配置中,我们有144个。每个SM最多由128个FP32单元组成,这应该给我们总共18,432个CUDA内核。
NVIDIAKeplerGK110GPU相当于HopperH100GPU上的单个GPC,第4代张量核心速度提高2倍