英伟达宣布NVIDIA H100加速卡全面投产 最大显存容量高达188GB
2023-3-22 09:32:0 Author: www.landiannews.com(查看原文) 阅读量:35 收藏

早前蓝点网提到英伟达推出专用加速卡NVIDIA H100,该加速卡是前代加速卡A100性能的3倍价格也是3倍。

趁着AI热潮黄仁勋显然再次抓住热点:英伟达今天宣布推出针对LLM大型语言模型的专用加速卡H100 NVL。

推出这个新SKU是因为英伟达注意到LLM运行时,超大量的数据会迅速填充显存,普通版本已经跟不上使用。

所以NVIDIA H100 NVL是迄今为止显存容量最大的版本,显存为188GB HBM3 显存,单卡显存容量94GB。

英伟达宣布NVIDIA H100加速卡全面投产 最大显存容量高达188GB

专门为LLM设计的新版本:

英伟达在新闻稿中表示 NVIDIA H100 加速卡已经全面投产,很快英伟达和合作伙伴将向全球企业推出新卡。

H100加速卡在LLM上提供快9倍的AI训练以及快30倍的AI推理 , 为全球AI企业发挥创造力提供强大动力基础。

不过今天还有个重点就是H100 NVL版 ,  这是英伟达专门面向大型语言模型推出的新SKU主要就是超大显存。

H100 NVL实际上是2张H100合并后的结果 ,  主要通过PCIe板进行桥接,每张卡显存为94GB合计为188GB。

连插槽都是2个PCIe 5.0的因此普通主板都插不上,估计要购买 H100 NVL 的话也得顺带购买配套专用主板。

具体价格方面目前还不清楚,此前传闻H100售价 32000 美元约合人民币22万元,H100 NVL也必然会翻倍。

以下是H100三种SKU参数对比:

NVIDIA H100 Accelerator Specification Comparison
H100 NVLH100 PCIeH100 SXM
FP32 CUDA Cores2 x 16896?1459216896
Tensor Cores2 x 528?456528
Boost Clock1.98GHz?1.75GHz1.98GHz
Memory Clock~5.1Gbps HBM33.2Gbps HBM2e5.23Gbps HBM3
Memory Bus Width6144-bit5120-bit5120-bit
Memory Bandwidth2 x 3.9TB/sec2TB/sec3.35TB/sec
VRAM2 x 94GB (188GB)80GB80GB
FP32 Vector2 x 67 TFLOPS?51 TFLOPS67 TFLOPS
FP64 Vector2 x 34 TFLOPS?26 TFLOPS34 TFLOPS
INT8 Tensor2 x 1980 TOPS1513 TOPS1980 TOPS
FP16 Tensor2 x 990 TFLOPS756 TFLOPS990 TFLOPS
TF32 Tensor2 x 495 TFLOPS378 TFLOPS495 TFLOPS
FP64 Tensor2 x 67 TFLOPS?51 TFLOPS67 TFLOPS
InterconnectNVLink 4
18 Links (900GB/sec)
NVLink 4
(600GB/sec)
NVLink 4
18 Links (900GB/sec)
GPU2 x GH100
(814mm2)
GH100
(814mm2)
GH100
(814mm2)
Transistor Count2 x 80B80B80B
TDP700W350W700-800W
Manufacturing ProcessTSMC 4NTSMC 4NTSMC 4N
Interface2 x PCIe 5.0
(Quad Slot)
PCIe 5.0
(Dual Slot)
SXM5
ArchitectureHopperHopperHopper

版权声明:感谢您的阅读,本文由山外的鸭子哥转载或编译自Anandtech,如需转载本文请联系原作者获取授权,谢谢理解。


文章来源: https://www.landiannews.com/archives/97940.html
如有侵权请联系:admin#unsafe.sh