产品介绍
NVIDIA A30 TENSOR CORE GPU
适用于不同企业的 AI 推理和主流计算 NVIDIA A30 Tensor Core GPU 是用途广泛的主流计算 GPU, 适用于 AI 推理和主流企业工作负载。这款 GPU 采用 NVIDIA Ampere 架构的 Tensor Core 技术,支持广泛的数学精度, 可针对每个工作负载提供单个加速器。 专为大规模 AI 推理而构建的同一计算资源能够通过 TF32 精度快速重新训练 AI 模型,同时还能借助 FP64 Tensor Core 加速高性能计算(HPC)应用。多实例 GPU (MIG)及 FP64 Tensor Core,可在 165W 低功率电路下相结合,实现速度 高达 933GB/s 的显存带宽,以上特性均在这一适用于主流 服务器的 PCIe 卡上体现。 通过结合使用第三代 Tensor Core 与 MIG 技术,其可在各种 工作负载中提供安全的服务质量,所有这些技术都由多功能 GPU 提供支持,从而实现弹性数据中心。A30 在各个规模的 工作负载中都具有多用途计算能力,能够尽可能地为主流 企业创造价值。 A30 是整个 NVIDIA 数据中心解决方案的一部分,该解决方案 由硬件、网络、软件、库以及 NGC™ 中经优化的 AI 模型和 应用等构成。作为性能超强的端到端数据中心专用 AI 和 HPC 平台,A30 可助力研究人员交付真实结果,并将解决方案 大规模部署到生产环境中。
为企业提供端到端解决方案
NVIDIA A30 Tensor Core GPU 采用现代数据中心的核心—— NVIDIA Ampere 架构,是 NVIDIA 数据中心 平台不可或缺的一部分。该平台专为深度学习、HPC 及数据分析而构建,并为包括各大深度学习框架在 内的 2000 余款应用提供加速。此外,NVIDIA AI Enterprise 是一套端到端云原生 AI 和数据分析软件套件, 经认证可在 A30 上运行,适用于结合 VMware vSphere 的基于 hypervisor 的虚拟基础架构。这使您能够 在混合云环境中管理和扩展 AI 工作负载。从数据中心到边缘节点均可使用完善的 NVIDIA 平台,不仅能 显著提升性能,还能创造众多成本节约机会。
跨工作负载的卓越性能
突破性的创新
NVIDIA A100 Tensor Core GPU 是 NVIDIA 数据中心平台的旗舰产品,可用于深度学习、 HPC 和数据分析。该平台可为 2000 余款应用和各大深度学习框架提供加速。A100 适用于桌面、服务器以及云服务,不仅能显著提升性能,还能创造众多节约成本的 机会。
发表评论