A100 は、フラッグシップ級の Inferred GPUです。 80GB HBM2e の大容量高速VRAMにより、大規模モデルの微調整 (Fine-tuning)、大規模言語モデル (LLM)、高次元データスループットの処理に優れています。
推奨されるトレーニング/使用シナリオ
Scientific Computing
BERT Training
Large Data Analytics
アーキテクチャ
Ampere
VRAM容量
80GB HBM2e
VRAM帯域幅
1935 GB/s
CUDAコア数
6912
FP16演算性能
624 TFLOPS
最大消費電力 (TDP)
400W