NVIDIA® Tesla® A30
产品亮点:NVIDIA AMPERE 架构无论是使用 MIG 技术将 A30 GPU 分割为较小的实例,还是使用 NVIDIA® NVLink® 连接多个GPU 以加速更大规模的工作负载,A30 均可轻松满足多种规模的加速需求,从小型作业到大型多节点工作负载都无一例外。A30 功能全面,这意味着 IT 经理可借此在主流服务器上充分利用数据中心内的每个 GPU,昼夜不停歇。第三代 TENSOR CO
产品亮点:NVIDIA AMPERE 架构无论是使用 MIG 技术将 A30 GPU 分割为较小的实例,还是使用 NVIDIA® NVLink® 连接多个GPU 以加速更大规模的工作负载,A30 均可轻松满足多种规模的加速需求,从小型作业到大型多节点工作负载都无一例外。A30 功能全面,这意味着 IT 经理可借此在主流服务器上充分利用数据中心内的每个 GPU,昼夜不停歇。第三代 TENSOR CO
产品亮点:
NVIDIA AMPERE 架构
无论是使用 MIG 技术将 A30 GPU 分割为较小的实例,还是使用 NVIDIA® NVLink® 连接多个GPU 以加速更大规模的工作负载,A30 均可轻松满足多种规模的加速需求,从小型作业到大型多节点工作负载都无一例外。A30 功能全面,这意味着 IT 经理可借此在主流服务器上充分利用数据中心内的每个 GPU,昼夜不停歇。
第三代 TENSOR CORE 技术
NVIDIA A30 可提供 165 teraFLOPS (TFLOPS) 的 TF32 精度深度学习性能。相较于 NVIDIA T4 Tensor Core GPU,A30 可将 AI 训练吞吐量提高 20 倍,并将推理性能提高 5 倍以上。A30 可在 HPC 方面提供 10.3 TFLOPS 的性能,比 NVIDIA V100 Tensor Core GPU 高出了近 30%。
新一代 NVLINK
A30 中采用的 NVIDIA NVLink 可提供两倍于上一代的吞吐量。两个 A30 PCIe GPU 可通过 NVLink 桥接器连接,以提供 330 TFLOPS 的深度学习性能。
多实例 GPU (MIG)
每个 A30 GPU 可分割多达四个GPU 实例,这些实例在硬件级别完全独立,并各自拥有高带宽显存、缓存和计算核心。借助 MIG,开发者可为其所有应用实现惊人加速。IT 管理员可为每个作业提供符合其规模的 GPU 加速,进而优化利用率,并让每个用户和应用都能享受 GPU 加速性能。
HBM2 显存
配合高达 24GB 的高带宽显存 (HBM2),A30 可提供933GB/s 的 GPU 显存带宽,适用于主流服务器中的多种 AI 和 HPC 工作负载。
结构化稀疏
AI 网络拥有数百万至数十亿个参数。实现准确预测并非要使用所有参数,而且我们还可将某些参数转换为零,以在无损准确性的前提下使模型变得“稀疏”。A30 中的 Tensor Core 可为稀疏模型提供高达两倍的性能提升。稀疏功能不仅更易使 AI 推理受益,同时还能提升模型训练的性能。
规格参数
FP64 | 5.2TF |
TF64 Tensor Core | 10.3 TF |
FP32 | 10.3 TF |
TF32 Tensor Core | 82 TF | 165 TF* |
BFLOAT16 Tensor Core | 165 TF | 330 TF* |
FP16 Tensor Core | 165 TF | 330 TF* |
INT8 Tensor Core | 330 TOPS | 661 TOPS* |
INT4 Tensor Core | 661 TOPS | 1321 TOPS* |
编码/译码 | 1 optical flow accelerator (OFA) 1 JPEG decoder (NVJPEG) 4 Video decoders (NVDEC) |
GPU 内存 | 24GB HBM2 |
GPU 内存带宽 | 933GB/s |
互联技术 | PCIe 4.0: 64GB/s 第三代 NVIDIA ® NVLINK ® 200GB/s** |
尺寸规格 | 2 插槽 (FHFL) |
散热设计功耗 (TDP) | 165W |
虚拟化 GPU 软件支持 | NVIDIA AI Enterprise for VMware NVIDIA Virtual Compute Server |
*数据来源NVIDIA官网