Nvidia公司上周都结束了超级19,这并不奇怪,并提出了很多的新闻,我们将进入后。但人忽略也许是所有最有趣的消息:新一代图形加速卡是速度更快,方式更省电。
多个与会者和新闻网站发现它在展会上,和Nvidia向我证实这确实是一个新的卡。自2017年Nvidia的“沃尔特”一代的特斯拉GPU加速器卡已经出来了,所以升级很早就应该。
该V100S来,只有在PCI Express的3形状因子,但现在预计最终将支持Nvidia的SXM2接口。SXM是双插槽设计,卡Nvidia公司,无需连接到电源,不像PCIe卡。SXM2允许GPU彼此或通过Nvidia的NVLink,高带宽,高能效的互连,可以比的PCIe更快的数据传输高达十倍的CPU要么通信。
有了这张卡,Nvidia公司宣称16.4单精度TFLOPS,8.2双精度TFLOPS,以及高达130 TFLOPS的张量核心的性能。那只是一个4到5比V100 SXM2设计改进%,但16至17%,比V100的PCIe变种速度更快。
存储器容量保持在32GB但Nvidia的加入高带宽存储器2(HBM2)增加存储器性能1,134GB / s时,在两个PCIe和SXM2一个改进26%。
现在一般性能的提升会看到在电力需求同时增加,但在这种情况下,PCIe卡包络功率为250瓦,同为前代PCIe卡。所以这款显卡提供了16到17%,在相同功率消耗更多的计算性能和更多的26%的内存带宽。
其他新闻
Nvidia公司在会上作了一些其他消息:
- 新的参考设计和生态系统支持,用于高性能计算的GPU加速的基于ARM的参考服务器。该公司表示,它已经从HPE / Cray公司,Marvell公司,富士通和安培,由前英特尔执行蕾妮詹姆斯率领的启动寻求建立基于ARM服务器处理器的支持。
- 这些公司将使用Nvidia的参考设计,它由硬件和软件组件,建立自己的GPU加速服务器,一切从超大规模云提供商高性能存储和百亿亿次超级计算机。该设计还带有CUDA-X,ARM处理器Nvidia的CUDA GPU开发语言的一个特殊版本。
- 的软件,旨在帮助数据科学家和AI和高性能计算研究的Nvidia万能IO套件的启动过程,几分钟而不是几小时大量的数据。它被最优化,以消除存储和I / O瓶颈更快地交付高达20倍的数据为多服务器,多GPU的计算节点的处理。
- Nvidia and DDN, developer of AI and multicloud data management, announced a bundling of DDN’s A3ITM data management system with Nvidia’s DGX SuperPOD systems with so customers can deploy HPC infrastructure with minimal complexity and reduced timelines. The SuperPODs would also come with the new NVIDIA Magnum IO software stack.
- DDN表示,SuperPOD能够在数小时内部署一台设备可以扩展到所有80个节点。在各种不同的深度学习模型的基准测试表明,DDN系统可以保持DGXSuperPOD系统数据完全饱和。