A100-80G

A100-80G 一款高性能 GPU,主要针对 AI、数据分析和 HPC 应用场景。架构与工艺:采用 NVIDIA Ampere 架构,基于台积电(TSMC)7nm 工艺制造,拥有 540 亿个晶体管,GPU 的最大功率达到 400W。显存规格NVIDIA:使用 HBM2e 技术,显存容量为 80GB,显存带宽超过 2TB/s,相比 A100 40GB 版本,显存容量增加了一倍,带宽提升了约 31

  • NVIDIA H200 NVL for PCIe: A100-80G
       A100-80G 一款高性能 GPU,主要针对 AI、数据分析和 HPC 应用场景。
  • 架构与工艺:采用 NVIDIA Ampere 架构,基于台积电(TSMC)7nm 工艺制造,拥有 540 亿个晶体管,GPU 的最大功率达到 400W。

  • 显存规格NVIDIA:使用 HBM2e 技术,显存容量为 80GB,显存带宽超过 2TB/s,相比 A100 40GB 版本,显存容量增加了一倍,带宽提升了约 31%。

  • 计算性能:FP64 峰值性能为 9.7TFLOPS,FP32 峰值性能为 19.5TFLOPS,FP32 Tensor Core 峰值性能为 312TFLOPS,BFLOAT16 Tensor Core 峰值性能为 624TFLOPS,INT8 Tensor Core 峰值性能为 1248TOPS,INT4 Tensor Core 峰值性能为 2496TOPS。

  • 特色技术:支持多实例 GPU(MIG)技术,可将 A100 GPU 划分为多达 7 个独立实例,每个实例最大可分配 10GB 显存,让多个用户都能使用 GPU 加速功能。此外,结合 NVIDIA NVLink、NVSwitch、PCIe 4.0 等技术,可实现多 GPU 扩展,提高数据传输速度和系统性能。

  • 应用场景NVIDIA:在深度学习训练中,对于大型模型如 DLRM,A100 80GB 每节点最多可达到 1.3TB 的整合内存,吞吐量比 A100 40GB 高 3 倍;在高性能计算中,搭配 80GB 的超快 GPU 显存,研究人员可以将原本需要 10 小时的双精度模拟,缩短至 4 小时以内完成;在深度学习推理中,对于像 RNN-T 这样批次大小受限的复杂模型,A100 80GB 增加的内存容量会将每个 MIG 的大小加倍,并提供比 A100 40GB 高 1.25 倍的吞吐量。


首页
产品
新闻
联系
Powered by MetInfo 7.3.0 ©2008-2021  mituo.cn