产品介绍
规格参数
NVIDIA H100 TENSOR CORE GPU
前所未有的性能、可扩展性和数据中心的安全性 加速计算的一个数量级飞跃
NVIDIA H100 Tensor Core GPU提供了前所未有的性能,每个工作负载的可扩展性和安全性。使用NVIDIA NVLink 交换机系统中,最多可以连接256个H100 GPU以加速exascale工作负载,另外可通过专用的 Transformer 引擎来为万亿参数语言模型提供支持。H100 使用 NVIDIA Hopper? 架构中的创新提供先进的对话式 AI,与上一代产品相比,可将大型语言模型的速度提高惊人的 30 倍。
安全加速从企业级到百亿亿级 (Exascale) 的工作负载
变革 AI 训练
NVIDIA H100 GPU 配备第四代 Tensor Core 和 Transformer 引擎(FP8 精度),与上一代产品相比,可为多专家 (MoE) 模型提供高 9 倍的训练速度。通过结合可提供 900 GB/s GPU 间互连的第四代 NVlink、可跨节点加速每个 GPU 通信的 NVLINK Switch 系统、PCIe 5.0 以及 NVIDIA Magnum IO? 软件,为小型企业到大规模统一 GPU 集群提供高效的可扩展性。
在数据中心级部署 H100 GPU 可提供出色的性能,并使所有研究人员均能轻松使用新一代百亿亿次级 (Exascale) 高性能计算 (HPC) 和万亿参数的 AI。
针对大型模型提供高达 9 倍的 AI 训练速度
多专家模型(3950 亿个参数)
为企业优化软件和服务
发表评论