NVIDIA发布全新数据中心推理平台,推进新一轮AI服务发展

慧聪通信网 2018-09-17 10:10 来源:慧聪通信网

【慧聪通信网】TeslaT4GPU及全新TensorRT软件可助力实现智能语音、视频、图像和推荐服务


东京—GTCJapan—2018年9月13日—NVIDIA今日推出全新人工智能数据中心平台,为语音、视频、图像和推荐服务提供业界最先进的推理加速,从而推动全球AI服务的发展。

NVIDIATensorRT™超大规模推理平台采用基于突破性的NVIDIATuring™架构的NVIDIA®Tesla®T4GPU,以及一整套完整的新推理软件。

该平台可为端到端应用提供最快性能和更低延迟,助力超大规模数据中心提供全新服务,例如增强型自然语言交互,以及对搜索查询的给出直接答案而非模糊匹配的一系列结果。

NVIDIA副总裁兼加速业务总经理IanBuck表示:“未来人工智能将触及每种产品和服务并为之带来改进,我们的客户正在朝此方向发展。NVIDIATensorRT超大规模平台的设计旨在实现这一目标,即比以往设想的更快、更高效。”

每天,大规模数据中心都会处理数以亿计的语音查询、翻译、图像、视频、推荐和社交媒体交互。所有这些应用的处理过程都需要在位于服务器上不同类型的神经网络进行。

为优化数据中心以实现最高吞吐量和服务器利用率,NVIDIATensorRT超大规模平台包括实时推理软件和TeslaT4GPU,处理查询的速度比仅采用CPU时快40倍。

NVIDIA预计AI推理行业有望在未来五年内平稳增长至200亿美元的市场。

业界最先进的AI推理平台

NVIDIATensorRT超大规模平台包括一整套硬件和软件产品,这些产品针对强大、高效的推理进行了优化。关键要素包括:

•NVIDIATeslaT4GPU–搭载320个TuringTensorCore和2560个CUDA®Core,这款全新GPU具有突破性的性能,以及灵活的多精度功能,从FP32到FP16再到INT8及INT4。它采用高能效的75瓦小型PCIe封装,可轻松适用于大多数服务器。FP16的峰值性能为65teraflops,INT8为130teraflops,INT4为260teraflops。

•NVIDIATensorRT5-推理优化器和运行时引擎,NVIDIATensorRT5支持TuringTensorCore,并对适用于多精度工作负载的神经网络优化集进行了扩展。

•NVIDIATensorRT推理服务器-这一容器化的微服务软件使应用能够在数据中心生产中采用AI模型。其在NVIDIAGPUCloud容器注册中免费提供,可实现数据中心吞吐量和GPU利用率的最大化,支持所有常用AI模型和框架,并集成了Kubernetes和Docker。

全球技术领导者的支持

NVIDIA全新推理平台获得了全球领先的消费级及企业级技术公司的支持。

微软Bing和AI产品公司副总裁JordiRibas表示:“微软致力于为客户提供最具创新性的AI服务。在实时推理工作负载中,NVIDIAGPU的使用实现了Bing高级搜索产品的改进,使我们能够减少图像的对象检测延迟。我们期待采用NVIDIA的下一代推理硬件和软件,让人们能够通过更多方式受益于AI产品和服务。”

GoogleCloud产品经理ChrisKleban表示:“AI越来越普及,推理是客户成功部署AI模型所需的关键功能,因此我们非常高兴很快Google云平台将支持NVIDIA基于Turing架构的TeslaT4GPU。”

包括有关如何在GoogleCloudPlatform申请T4GPU早期试用版的更多详情,请访问此处。


包括所有主流服务器制造商在内的其他公司也表示了对NVIDIATensorRT超大规模平台的支持,包括:


“思科的UCS产品组合提供策略驱动的GPU加速系统和解决方案,可为AI全生命周期内的每一阶段提供有力支持。借助基于NVIDIATuring架构的NVIDIATeslaT4GPU,思科的客户可访问最高效的AI推理工作负载加速器,更快地获得洞察并加速展开工作。”

——思科数据中心事业群产品管理副总裁KaustubhDas

“DellEMC致力于助力客户实现IT转型,同时受益于人工智能等方面的进步。作为全球领先的服务器系统供应商,DellEMC不断改进PowerEdge服务器产品组合,以助力客户最终实现其目标。我们与NVIDIA密切合作,且一直以来都采用Tesla产品组合中的最新GPU加速器,这对于帮助我们的客户在AI训练和推理方面保持领先地位起着至关重要的作用。”

——DellEMC服务器和基础设施系统产品管理和营销高级副总裁RaviPendekanti

“富士通计划将NVIDIA的TeslaT4GPU整合至我们全球的富士通服务器PRIMERGY系统阵容中。利用NVIDIA最新的高效GPU加速器,我们将为全球客户提供针对不断增长的AI需求而优化的服务器。”

——富士通数据中心平台业务部产品部副总裁HideakiMaeda

“HPE致力于推进边缘智能,以加速获得洞察并改善体验。借助基于NVIDIATuring架构的NVIDIATeslaT4GPU,我们将持续进行数据中心现代化和加速,以实现边缘推理。”

——HPEHPC和AI事业群副总裁兼总经理BillMannel

“借助我们的深度学习训练和推理软件PowerAI及IBMPowerSystemsAC922加速服务器,在简化的AI平台上协同优化的硬件和软件使IBMCognitiveSystems能够将深度学习训练速度提高4倍。我们一直以来与NVIDIA保持合作伙伴关系并开展创新,共同开发了IBMPower处理器上业界唯一的CPU至GPUNVIDIANVLink连接,我们很高兴能够围绕全新NVIDIAT4GPU加速器展开探索,进一步扩展在推理工作负载方面的业界领先地位。”

——IBMPowerSystems产品管理副总裁SteveSibley

“我们很高兴看到NVIDIA通过NVIDIATensorRT推理服务器为Kubernetes带来GPU推理,并期待将其与Kubeflow集成,为用户提供一种简单、可迁移且可扩展的方式,以在各种基础设施中部署AI推理。”

——Kubeflow联合创始人兼产品经理DavidAronchick

“开源跨框架推理对于机器学习模型的生产部署至关重要。我们很高兴看到NVIDIATensorRT推理服务器能够为大规模服务的GPU和CPU推理提供强大的解决方案,并加快AI应用部署并提高基础设施利用率。”

——Oracle云基础设施产品开发副总裁KashIftikhar

“Supermicro致力于通过创新来应对5G、智能城市和物联网设备等技术驱动下快速兴起的高吞吐量推理市场,这些技术在持续产生大量数据并需要实时决策。我们认为NVIDIATensorRT与基于Turing架构的T4GPU加速器的结合是应对这些新的要求苛刻且对延迟敏感的工作负载的理想组合,并计划在我们的GPU系统产品线中大举采用。”

—Supermicro总裁兼首席执行官CharlesLiang

关于NVIDIA

NVIDIA(纳斯达克股票代码:NVDA)在1999年发明的GPU激发了PC游戏市场的增长,重新定义了现代计算机显卡,并且对并行计算进行了革新。最近,通过将GPU作为可以感知和理解世界的计算机、机器人乃至自动驾驶汽车的大脑,GPU深度学习再度点燃了全新的计算时代——现代人工智能。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。