H100 は、フラッグシップ級の Inferred GPUです。 80GB HBM3 の大容量高速VRAMにより、大規模モデルの微調整 (Fine-tuning)、大規模言語モデル (LLM)、高次元データスループットの処理に優れています。
推奨されるトレーニング/使用シナリオ
LLM Training
Advanced AI Research
Deep Learning Fine-tuning
アーキテクチャ
Hopper
VRAM容量
80GB HBM3
VRAM帯域幅
3350 GB/s
CUDAコア数
16896
FP16演算性能
1979 TFLOPS
最大消費電力 (TDP)
700W