NVIDIA H100

딥러닝, 거대언어모델 추론 및 대규모 과학 연산에 최적화된 고성능 전문가용 GPU입니다.

최저 시작 가격
$0.73 /h
678개의 구성 비교 모든 가격 비교 ↓

사양 및 가격 필터

가장 저렴한 5개의 구성만 표시됩니다.

제공업체 사양 총 VRAM vCPU 메모리 결제 방식 단가/h 업데이트

과거 가격 추이

AI 학습 성능 및 활용 시나리오

AI 분석

The NVIDIA H100 Tensor Core GPU is the current gold standard for large-scale AI training and inference. Featuring the Transformer Engine and 80GB of HBM3 memory, it offers up to 9x faster AI training over the previous generation A100. On CloudGPUTracker, we monitor H100 instances from global providers. Whether you need a single PCIe card for development or an 8x SXM cluster for massive LLM fine-tuning, our tracker helps you find the immediate availability across global providers.

H100 은(는) 플래그십급 Inferred GPU입니다. 80GB HBM3의 대용량 고속 VRAM을 바탕으로 대규모 모델 파인튜닝(Fine-tuning), 거대언어모델(LLM) 및 대용량 데이터 처리에서 탁월한 성능을 발휘합니다.

권장 학습/사용 시나리오

LLM Training
Advanced AI Research
Deep Learning Fine-tuning

핵심 기술 사양

아키텍처
Hopper
VRAM 용량
80GB HBM3
VRAM 대역폭
3350 GB/s
CUDA 코어 수
16896
FP16 연산 성능
1979 TFLOPS
최대 소비 전력 (TDP)
700W

인기 GPU 비교