NVIDIA AI 大力推进语音、推荐系统和超大规模推理领域的发展
【慧聪通信网】2022 年 3 月 22 日,NVIDIA 发布 NVIDIA AI 平台的多项重要更新。该平台是一套致力于推进语音、推荐系统、超大规模推理等工作负载的软件套件,目前已被 Amazon, Microsoft, Snap 和日本电信电话株式会社等全球行业领导者所采用。
NVIDIA 也宣布了 NVIDIA® AI 加速计划,以助力确保 NVIDIA 软件和解决方案合作伙伴所开发 AI 应用的性能和可靠性。该计划针对各种经过验证的 AI 加速应用增加了可见性,使企业客户能够放心地在 NVIDIA AI 平台上进行部署。Adobe、红帽(Red Hat)和 VMware 等 100 多家合作伙伴参与了计划启动仪式。
NVIDIA 创始人兼首席执行官黄仁勋表示: “NVIDIA AI 可定义为全球 AI 社区的软件工具箱,从 AI 研究者和数据科学家们,到数据和机器学习的运营团队。NVIDIA 在 GTC 2022上有着大量的新发布。无论是创建互动能力更强的聊天机器人和虚拟助手,还是构建更加智能的推荐系统来帮助消费者做出更完善的购买决策,亦或是以最大的规模编排 AI 服务,NVIDIA AI 始终能够针对您的需求提供强大的助力。”
NVIDIA AI 可供开发者免费使用,包括用于语音 AI 的 NVIDIA Riva 和用于智能推荐系统的 NVIDIA Merlin™,这两款软件均已正式全面上线。而整个软件套件也进行了更新,包括 NVIDIA Triton、NeMo、Maxine 和 TAO 工具包等工具。
此外,NVIDIA AI Enterprise 2.0 现已经过优化和认证,并支持所有主要的数据中心和云平台,包括裸金属服务器、虚拟化基础设施和纯 CPU 系统。该套件现在支持 Red Hat OpenShift 和 VMware vSphere with Tanzu。
用于构建领先AI应用的软件工具
NVIDIA AI 是由多项具有关键功能的 SDK 和工具所组成,可用于跨多个节点上对 AI 工作负载进行快速部署、管理和扩展,为复杂的训练和机器学习工作负载提供有力的支持。它包含以下软件和工具:
● NVIDIA Triton™ :NVIDIA Triton 是一款多功能开源超大规模模型推理解决方案。其最新版本包含三项关键更新:用于加速部署优化模型的模型导航器、用于在 Kubernetes 中进行高效扩展的管理服务,以及能够对基于树的模型进行推理的森林推理库,其具有可解释性,可在每个应用中实现快速、经过优化和可扩展的AI。
● NVIDIA Riva 2.0:这款领先的语音 AI SDK 包含具有领先识别率的预训练模型,使开发者能够为其行业定制实时语音AI应用程序,其准确率比普通服务高 2 倍。Riva 2.0 包含 7 种语言的语音识别、基于深度学习仿真人发音的语音合成(包括男声和女声)以及可通过 NVIDIA TAO 工具包进行的自定义调优。NVIDIA 还发布了涵盖企业级支持的付费产品 NVIDIA Riva Enterprise。
● NVIDIA NeMo Megatron 0.9:NeMo Megatron 是一个用于训练大型语言模型(LLM)的框架。研究者和企业能够用它来训练模型,使模型能够收敛和扩展至数万亿个参数,以便用于对话式 AI、推荐系统和基因组学等应用。其最新版本中新增的优化和方法能够缩短端到端开发和训练时间,并添加对云端训练的支持。NVIDIA 加速计算 LLM 的早期用户包括京东、AI Sweden、Naver 和佛罗里达大学。
● NVIDIA Merlin 1.0:这是一个加速端到端推荐 AI 框架,用于大规模构建高性能推荐系统。它包含两个新库:Merlin Models 和 Merlin Systems。这些库使数据科学家和机器学习工程师能够确定哪些功能和模型最适合他们的应用场景,并将推荐系统流水线部署为微服务。
● NVIDIA Maxine:这个音频和视频质量增强 SDK 使用 AI 重塑实时通信,并引入回声消除和音频超分辨率。这两项新功能能够提高音频质量,带来更清晰的通信体验。
NVIDIA AI 深受客户的欢迎
各个行业的领导者正在使用 NVIDIA AI 来提高成本效益、打造更具吸引力的客户体验并优化 AI 应用的功能。
Snap 对话式 AI 负责人 Alan Bekker 表示:“在 Snapchat 上,我们的社区每天使用 Lenses 超过 60 亿次。Snap 正在使用 NVIDIA Riva 来优化基于 AI 的语音功能,并将这些功能提供给 Lens Studio创作者,助力其打造新一代高质量 AR 体验。”
微软技术研究员兼 Azure AI 首席技术官黄学东表示:“Microsoft Azure 认知服务 Translator 中的文件翻译功能,能够在翻译文件时保留源文件的格式和结构,提高企业与客户的互动效率。通过NVIDIA Triton,我们能够部署最新的 Z-Code 模型,在保证低延迟的前提下大幅提高文档翻译质量,为用户提供一流的翻译服务。”
NVIDIA AI Enterprise 支持跨数据中心和云的容器化 AI
作为一款端到端、云原生的 AI 和数据分析工具与框架套件,NVIDIA AI Enterprise 2.0 软件套件能够加速各个行业的 AI 开发和部署。Red Hat OpenShift 是领先的企业级 Kubernetes 平台,获得 Red Hat OpenShift 认证的客户能够通过 VMware vSphere 使用容器化机器学习工具,更轻松地在裸金属或虚拟化系统上构建、扩展和共享模型。
红帽合作伙伴生态系统部门高级副总裁 Stefanie Chiras 表示:“NVIDIA AI Enterprise 已获得 Red Hat OpenShift 认证,并且 OpenShift 已在 NVIDIA LaunchPad 上线,因此用户可以同时获得顶尖的AI 开发工具以及具有一致性的混合云基础。现在,IT 团队和数据科学家可以在 Red Hat OpenShift 上构建并管理 NVIDIA AI,帮助企业加快实际生产中的智能应用交付速度。”
NVIDIA AI Enterprise 2.0 还引入了更多支持训练和推理的 NVIDIA AI 软件容器。对 NVIDIA TAO 工具包的支持使企业开发者能够对 NVIDIA 预训练 AI 模型进行微调和优化,从而简化自定义生产就绪模型的创建,而无需具备 AI 专业知识或大量训练数据。该软件套件还包含最新发布的 NVIDIA Triton 推理服务器。
日本电信电话株式会社是日本电信电话集团旗下的全球领先信息和通信技术解决方案提供商。该公司已采用 NVIDIA AI Enterprise 来助力研发团队加速构建自然语言处理(NLP)和智能视频分析应用。
日本电信电话株式会社创新中心技术部总监 Shoichiro Henmi 表示:“我们的许多应用开发者现在都在使用加速计算,并有赖于内部基础设施来提供易于使用且具有高成本效益的 GPU 环境。我们认为 NVIDIA AI Enterprise 是作为支持 AI 平台的理想解决方案,它将为我们在 VMware vSphere、Kubernetes 和云基础设施中的大规模开发工作提供支持。”
客户可以授权 NVIDIA AI Enterprise 在 NVIDIA 认证系统(NVIDIA-Certified Systems™)上运行,也可以在没有 NVIDIA GPU 的相同型号服务器上运行,包括来自思科、戴尔科技、新华三、慧与(HPE)、浪潮、联想、宁畅和超微等领先制造商的服务器。
企业还可以选择在托管于全球各地 Equinix International Business Exchange™(IBX® )数据中心的服务器上进行部署。现已支持来自 AWS、谷歌云和 Microsoft Azure 的云实例。NVIDIA AI Enterprise 现已包含于 NVIDIA DGX 系统中。
供货情况
作为 NVIDIA 开发者计划的一部分,开发者均可使用 NVIDIA 的 AI 软件集。
企业 IT 团队和 AI 开发者可以在 NVIDIA LaunchPad 实验室中体验 NVIDIA AI 软件,其是由 Equinix Metal 在全球九座 Equinix IBX 数据中心提供的免费托管计划。新增加的 LaunchPad 实验室包括Riva 语音 AI 实验室,以及多个可以体验 Red Hat OpenShift、VMware vSphere with Tanzu、TAO 工具包和 Triton 推理服务器(带有 FIL 后端)的 NVIDIA AI Enterprise 实验室。