NVIDIA (辉达)今天宣布推出一款在Microsoft Azure云端环境中执行的全新类型 GPU加速超级电脑。
|
/news/2019/11/19/1526564230S.jpg |
Azure为因应最苛刻的AI与高效能运算应用,以最大规模部署旗下全新NDv2执行个体,使其跻身全球最快超级电脑之一,而NDv2执行个体靠着单一Mellanox InfiniBand後端网路即可串连高达800个NVIDIA V100 Tensor核心GPU。使得客户能够首次在办公桌上按照需求来租用整个AI超级电脑,享受在公司内部要花上数个月来部署大规模超级电脑才能获得的同样效能。
NVIDIA加速运算部门??总裁暨总经理Ian Buck 表示:「到目前为止,唯有全球最大型的企业和组织才能取得超级电脑这项资源来处理 AI 及高效能运算作业。Microsoft Azure的新产品让更多人可以取得 AI这项基本工具,以解决世界上部分最棘手的问题。」
Microsoft Azure运算部门??总裁Girish Bablani补充道:「各地云端运算的发展势如破竹,客户都想找更强大的服务。Microsoft与NVIDIA联手让客户能够立即取得强大的超级运算能力,这是过去想都想不到的,开启了创新的新纪元。」
适用於处理复杂 AI、机器学习及高效能运算作业负载的新产品,与传统的 CPU 运算产品相比,可以提供显着的效能及成本优势。需要快速解决问题的 AI 研究人员,能够快速启动多个 NDv2 执行个体,只要几个小时便能完成训练复杂的对话型 AI 模型。
Microsoft与NVIDIA的工程师在预先发布的丛集版本上使用64个NDv2执行个体,只花了约三小时便完成训练热门的对话型AI模型BERT,其中有部分利用了NCCL 的多GPU优化、NVIDIA CUDA X函式库与高速 Mellanox 互连技术。
客户还能获得使用多个 NDv2 执行个体来运行复杂 HPC 作业负载像是 LAMMPS 的优点。LAMMPS 是一种热门的分子动力学应用程式,用在药物开发和发现等领域模拟深入到原子层级的材料。对於深度学习等特定类型的应用项目,单一 NDv2 执行个体可以在不使用 GPU 加速技术的情况下,以传统 HPC 节点难以??其项背的速度更快提供结果。这种效能表现能够以线性方式扩大到 100 个执行个体,以处理大规模模拟作业。
所有 NDv2 执行个体皆受益於 GPU 优化的 HPC 应用程式与机器学习软体,还有来自 NVIDIA NGC 容器 registry 与 Azure Marketplace 的 TensorFlow、PyTorch 及 MXNet 等深度学习框架。该 registry 还提供多个 Helm chart 以便在 Kubernetes 丛集上轻松部署 AI 软体。