英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

科技资讯 不思进取 1年前 (2019-11-20) 502次浏览 0个评论 扫描二维码

之前英伟达发表将 CUDA 带进 Arm 架构处理器的超级电脑后,在 2019 年 Supercomputing 超级运算大会上,发表了能让图形处理器绕过 CPU,直接读取内存数据的Magnum IO软件套件,能够有效降低运算过程中的延迟,大幅提升整体性能。

打通 AI 运算任督二脉

由于 AI 运算与一般运算的特性有所不同,所以往往对图形处理器(GPU)的资源需求高于处理器(CPU),而且需要运算过程需要读取大量数据,造成电脑时所需要的图形处理器数量会高于处理器,且许多运算时间会浪费在图形处理器读取内存的延迟。

之前英伟达在 2019 年国际超级运算大会(International Supercomputing Conference)发表了 CUDA on Arm,让采用 Arm 架构处理器建置的超级电脑也能使用英伟达图形处理器进行高性能运算(High Performance Computing,以下简称 HPC ),并预计在 2019 年底达到支持 600 款 HPC 运算软件与全部 AI 框架的目标,其中也支持英伟达的 CUDA-X AI 与 HPC 函数库。英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

如此一来无论处理器的架构为 Arm、Power、x86 的电脑,都能通过英伟达图形处理器为 AI 运算加速,让使用者可以选择适合自身使用环境的处理器,例如利用 Arm 架构处理器追求更高的效率。而在 2019 年 Supercomputing 超级运算大会上,英伟达进一步宣布Magnum IO软件套件,可以通过最佳化方式消除储存、I/O 造成的性能瓶颈。根据官方提供的说明,能提升多服务器、多图形处理器的运算节点在处理复杂金融分析、气候预测时数据处理性能达 20 倍,让数据科学家与 AI、HPC 研究员在数分钟内完成原本需要花费数小时的工作。英伟达发表了全新支持图形处理器加速的 Arm 服务器设计参考平台,以满足各种云端运算与 HPC 需求。

英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

▲ 英伟达发表了全新支持图形处理器加速的 Arm 服务器设计参考平台,以满足各种云端运算与 HPC 需求。

使用 Arm 处理器搭配英伟达图形处理器建构服务器最大的优势,就是能够提升整体能源效率。

英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

▲使用 Arm 处理器搭配英伟达图形处理器建构服务器最大的优势,就是能够提升整体能源效率。

 

英伟达与 Arm、Ampere、Cray、Fujitsu、HPE、Marvell 等厂商携手打造多种图形处理器加速服务器。

英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

▲ 英伟达与 Arm、Ampere、Cray、Fujitsu、HPE、Marvell 等厂商携手打造多种图形处理器加速服务器。

Magnum IO能够有效提升包括上图 DGX SuperPOD 在内等多种搭载英伟达图形处理器服务器的数据处理性能达 20 倍。

英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

Magnum IO能够有效提升包括上图 DGX SuperPOD 在内等多种搭载英伟达图形处理器服务器的数据处理性能达 20 倍。

Magnum IO的主要功能在将低图形处理器读取数据的延迟与处理器占用率。

英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

Magnum IO的主要功能在将低图形处理器读取数据的延迟与处理器占用率。

Magnum IO 能在多服务器、多图形处理器的运算节点发挥功效。

英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

▲ Magnum IO 能在多服务器、多图形处理器的运算节点发挥功效。

与 Microsoft 共推云端运算

企业除了可以自行架设服务器外,Microsoft 全新的 Azure NDv2 系列虚拟机器最多能在单个 Mellanox InfiniBand 后端网路提供高达 800 个的英伟达 Tesla V100 图形处理器,加快企业部署 AI 运算的速度。

如此一来企业只需在自己的办公室租用虚拟机器,并在短短几个小时内完成过去需要花费数月的 AI 运算超级电脑部署工作,大大降低时间成本。企业客户可以直接租用 Microsoft 提供的 Azure NDv2 系列虚拟机器,快速部署 AI 运算超级电脑。

英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能

▲企业客户可以直接租用 Microsoft 提供的 Azure NDv2 系列虚拟机器,快速部署 AI 运算超级电脑。

对此英伟达副总裁兼加速运算总经理 Ian Buck 说:「相较于之前只有世界级的大企业与组织能拥有 AI 与 HPC 运算的超级电脑,但 Microsoft Azure 新产品的催化让 AI 变的更加民主化(Microsoft Azure’s new offering democratizes AI),让人们能有更多工具能解决各项重大挑战。


不思进取 , 版权所有丨如未注明 , 均为原创丨本网站采用BY-NC-SA协议进行授权
转载请注明原文链接:英伟达发布Magnum IO,让GPU直接读取内存,强化AI超级电脑性能
喜欢 (0)
[]
分享 (0)

您必须 登录 才能发表评论!