V100 は、フラッグシップ級の Inferred GPUです。 32GB HBM2 の大容量高速VRAMにより、大規模モデルの微調整 (Fine-tuning)、大規模言語モデル (LLM)、高次元データスループットの処理に優れています。
推奨されるトレーニング/使用シナリオ
Deep Learning Training
HPC
Matrix Operations
アーキテクチャ
Volta
VRAM容量
32GB HBM2
VRAM帯域幅
900 GB/s
CUDAコア数
5120
FP16演算性能
125 TFLOPS
最大消費電力 (TDP)
300W