V100 은(는) 플래그십급 Inferred GPU입니다. 32GB HBM2의 대용량 고속 VRAM을 바탕으로 대규모 모델 파인튜닝(Fine-tuning), 거대언어모델(LLM) 및 대용량 데이터 처리에서 탁월한 성능을 발휘합니다.
권장 학습/사용 시나리오
Deep Learning Training
HPC
Matrix Operations
아키텍처
Volta
VRAM 용량
32GB HBM2
VRAM 대역폭
900 GB/s
CUDA 코어 수
5120
FP16 연산 성능
125 TFLOPS
최대 소비 전력 (TDP)
300W