A100 은(는) 플래그십급 Inferred GPU입니다. 80GB HBM2e의 대용량 고속 VRAM을 바탕으로 대규모 모델 파인튜닝(Fine-tuning), 거대언어모델(LLM) 및 대용량 데이터 처리에서 탁월한 성능을 발휘합니다.
권장 학습/사용 시나리오
Scientific Computing
BERT Training
Large Data Analytics
아키텍처
Ampere
VRAM 용량
80GB HBM2e
VRAM 대역폭
1935 GB/s
CUDA 코어 수
6912
FP16 연산 성능
624 TFLOPS
최대 소비 전력 (TDP)
400W