H100 PCIe 是一款旗舰级的 datacenter GPU。 凭借 80GB 的超大高速显存,它在处理大规模模型微调 (Fine-tuning)、超大规模语言模型 (LLM) 以及超高维度数据吞吐时表现卓越。
推荐训练/使用场景
深度学习
模型推理
视频编解码
核心架构
Hopper
显存容量
80GB
显存带宽
2.0 TB/s
CUDA 核心数
14592
FP16 半精度算力
1513 TFLOPS
最大功耗 (TDP)
350W