大容量显存
80GB HBM2e 显存确保可以顺畅处理大型模型,如 LLaMA 70B 及以上,支持训练和推理。
Nvidia H100 80GB HBM2e PCIe GPU 为 AI 和 HPC 应用带来了革命性变化。其超大显存容量、先进的精度选项以及 Hopper 架构,使其成为大型语言模型(LLM)训练与推理的首选。配合托管解决方案,它为开发者和企业提供无与伦比的可扩展性和灵活性。
如果您正在构建下一代 AI 创新,H100 GPU 提供了所需的性能与可靠性,助您在竞争中保持领先。
GPU | Nvidia H100 | Nvidia A100 | Nvidia A40 | Nvidia RTX 4090 |
---|---|---|---|---|
显存 | 80GB HBM2e | 80GB HBM2 | 48GB GDDR6 | 24GB GDDR6X |
带宽 | 2 TB/s | 1.55 TB/s | 696 GB/s | 1 TB/s |
FP32 TFLOPS | 183 | 19.5 | 37.48 | 82.6 |
精度支持 | FP64, FP32, FP8 | FP64, FP32, FP16 | FP32, FP16, INT8 | FP32, FP16, INT8 |
最佳使用场景 | 大型语言模型训练与推理 | 大规模 AI 训练 | 中型 LLM 和 HPC | 消费级 AI 与游戏 |