NVIDIA® Tesla® V100/ V100S
产品亮点:NVIDIA Volta 架构通过在一个统一架构内搭配使用 NVIDIA® CUDA® 内核和 Tensor 内核,配备 NVIDIA® Tesla® V100 GPU的单台服务器可以取代数百台通用 CPU 服务器来处理传统的 HPC 和深度学习。TENSOR CORE 技术NVIDIA® Tesla® V100 配有 640 个 Tensor 核心,可提供 125 万亿次级的深度学习性
产品亮点:NVIDIA Volta 架构通过在一个统一架构内搭配使用 NVIDIA® CUDA® 内核和 Tensor 内核,配备 NVIDIA® Tesla® V100 GPU的单台服务器可以取代数百台通用 CPU 服务器来处理传统的 HPC 和深度学习。TENSOR CORE 技术NVIDIA® Tesla® V100 配有 640 个 Tensor 核心,可提供 125 万亿次级的深度学习性
产品亮点:
NVIDIA Volta 架构
通过在一个统一架构内搭配使用 NVIDIA® CUDA® 内核和 Tensor 内核,配备 NVIDIA® Tesla® V100 GPU的单台服务器可以取代数百台通用 CPU 服务器来处理传统的 HPC 和深度学习。
TENSOR CORE 技术
NVIDIA® Tesla® V100 配有 640 个 Tensor 核心,可提供 125 万亿次级的深度学习性能。与 NVIDIA Pascal™ GPU 相比,可为深度学习训练提供 12 倍张量浮点运算能力;为深度学习推理提供 6 倍张量浮点运算能力。
新一代 NVLINK
NVIDIA® Tesla® V100 中采用的 NVIDIA® NVLink™ 可提供 2 倍于上一代的吞吐量。8 块 NVIDIA® Tesla® V100 加速器能以高达 300 GB/s 的速度互联,从而发挥出单个服务器所能提供的高应用性能。
超强节能模式
全新的超大节能模式可允许数据中心在现有的功耗预算内,使每个机架提升高达40% 的计算能力。在此模式下,NVIDIA® Tesla® V100 以最大处理效率运行时,可提供高达 80% 的性能而只需一半的功耗。
HBM2 显存
NVIDIA® Tesla® V100 将 900 GB/s 的改良版原始带宽与高达 95%的 DRAM 利用效率相结合,在 STREAM 上测量时可提供高于 NVIDIA Pascal™ GPU 1.5 倍的显存带宽。
可编程性
NVIDIA® Tesla® V100 的架构设计初衷即是为了简化可编程性。其全新的独立线程调度能力可实现细粒度同步,并能通过在琐碎的工作之间共享资源进而提升 GPU 的利用率。
规格参数
V100 PCIE | V100 SXM2 | V100S PCIE | |
GPU 架构 | NVIDIA Volta | ||
NVIDIA Tensor 核心数量 | 640 | ||
NVIDIA CUDA ® 核心数量 | 5120 | ||
双精度浮点运算性能 | 7 TFLOPS | 7.8 TFLOPS | 8.2 TFLOPS |
单精度浮点运算性能 | 14 TFLOPS | 15.7 TFLOPS | 16.4 TFLOPS |
Tensor 性能 | 112 TFLOPS | 125 TFLOPS | 130 TFLOPS |
GPU 显存 | 32 GB 或 16 GB HBM2 | 32 GB HBM2 | |
显存带宽 | 900 GB/s | 1134 GB/s | |
纠错码 | 支持 | ||
互联带宽 | 32 GB/s | 300 GB/s | 32 GB/s |
系统接口 | PCIe 3.0 | NVIDIA NVLink ™ | PCIe 3.0 |
外形尺寸 | PCIe 全高 / 全长 | SXM2 | PCIe 全高 / 全长 |
功耗 | 250 瓦 | 300 瓦 | 250 瓦 |
散热解决方案 | 被动式 | ||
计算API | CUDA、DirectCompute、OpenCL ™ 、OpenACC |
*数据来源NVIDIA官网