NVIDIA H100

对比全网最低 NVIDIA H100 云算力租赁价格。实时监控 Lambda, RunPod, FluidStack 等 50+ 供应商。为您提供适用于 LLM 大模型训练的 H100 80GB PCIe/SXM 实例。

全网最低起步价
$0.73 /h
综合对比 678 个配置 对比所有报价 ↓

配置价格筛选

仅展示价格最低的 5 个配置。

服务商 规格 总显存 vCPU 内存 计费方式 单价/h 更新于

历史价格走势

AI 训练性能与适用场景

AI 深度分析

NVIDIA H100 Tensor Core GPU 是当前大模型训练与推理的行业标杆。凭借其 Transformer 引擎和 80GB HBM3 高带宽显存,其 AI 训练速度比 A100 提升了 9 倍。在 CloudGPUTracker,我们监控到 H100 实例。无论您是需要单张 PCIe 卡进行开发,还是需要 8x SXM 集群进行大规模模型微调,我们的监控器都能帮您找到全球范围内的即时可用库存。

H100 是一款旗舰级的 Inferred GPU。 凭借 80GB HBM3 的超大高速显存,它在处理大规模模型微调 (Fine-tuning)、超大规模语言模型 (LLM) 以及超高维度数据吞吐时表现卓越。

推荐训练/使用场景

LLM Training
Advanced AI Research
Deep Learning Fine-tuning

技术核心参数

核心架构
Hopper
显存容量
80GB HBM3
显存带宽
3350 GB/s
CUDA 核心数
16896
FP16 半精度算力
1979 TFLOPS
最大功耗 (TDP)
700W

热门 GPU 对比

```