H100 은(는) 플래그십급 Inferred GPU입니다. 80GB HBM3의 대용량 고속 VRAM을 바탕으로 대규모 모델 파인튜닝(Fine-tuning), 거대언어모델(LLM) 및 대용량 데이터 처리에서 탁월한 성능을 발휘합니다.
권장 학습/사용 시나리오
LLM Training
Advanced AI Research
Deep Learning Fine-tuning
아키텍처
Hopper
VRAM 용량
80GB HBM3
VRAM 대역폭
3350 GB/s
CUDA 코어 수
16896
FP16 연산 성능
1979 TFLOPS
최대 소비 전력 (TDP)
700W