MLCommons於美国时间9月11日针对60亿个叁数的大型语言GPT-J,以及电脑视觉和自然语言处理模型发表MLPerf Inference v3.1效能基准测试结果。英特尔提交Habana Gaudi2加速器、第4代Intel Xeon可扩充处理器和Intel Xeon CPU Max系列的测试结果。这些结果不仅显示英特尔在AI推论方面可提供具竞争力的效能表现,更强化英特尔的承诺━在客户端、边缘、网路、云端等一连串AI工作负载中,让AI更容易大规模地落实应用。
|
HabanaGaudi2GPT |
英特尔执行??总裁暨资料中心和AI事业群总Sandra Rivera指出,正如同近期MLCommons的结果,展示出英特尔拥有强劲、极具竞争力的AI产品组合,能够满足客户对於高效能、高效率深度学习模型推论和训练的需求,适合用在最小到最大的各种AI模型,并提供领先的性价比。
在今年6月更新的MLCommons AI训练和Hugging Face效能基准测试,验证了Gaudi2在最先进视觉语言模型方面的效能优势;而9月11日的结果近一步强化英特尔是满足AI运算需求,能够替代同类型竞品的可行方案。
每位客户均有独特的考量,而英特尔提供可解决一连串AI工作负载推论与训练难题的产品,将AI落实到每个角落。英特尔的AI产品让客户能够根据各自的效能、效率和成本目标,在选择最隹AI解决方案时拥有灵活性和选项,同时协助客户打破封闭的生态系。
Habana Gaudi2结果:Habana Gaudi2的GPT-J推论效能结果,为其极具竞争力的效能提供有力的验证。
●Gaudi2在GPT-J-99和GPT-J-99.9的伺服器查询(query)和离线样本推论效能,分别为每秒78.58个查询和每秒84.08个样本。
●Gaudi2的效能是NVIDIA A100的2.4倍(伺服器)和2倍(离线)。
●Gaudi2的提交结果使用FP8,在此新资料类型的准确度高达99.9%。
Gaudi2大约每6周至8周释出一次软体更新,英特尔预期在MLPerf基准测试中继续提升效能并扩大模型覆盖范围。
Intel Xeon结果:英特尔提交第4代Intel Xeon可扩充处理器的结果,其中包含GPT-J在内的所有7项推论基准测试。这些结果展现出通用AI工作负载的优异效能,包含视觉、语言处理、语音和音讯翻译模型,以及规模更大的DLRM v2推荐和ChatGPT-J模型。此外,英特尔仍是唯一一家使用业界标准深度学习生态系软体来提交公开CPU结果的供应商。
●使用最流行的AI框架与函式库建立并部署通用AI工作负载,第4代Intel Xeon可扩充处理器为其理想之选。1篇新闻文章约1,000字至1,500字的GPT-J 100字摘要工作,第4代Intel Xeon处理器在离线模式下每秒可总结2个段落,即时伺服器模式下每秒总结1个段落。
●英特尔首次提交Intel Xeon CPU Max系列的MLPerf结果,该系列可提供高达64GB的高频宽记忆体。在GPT-J方面,它是唯一能够达成99.9%准确度的CPU,这对於需要最高精准度的应用而言十分重要。
●英特尔和原始设备制造商(OEM)客户合作,提交他们自己的结果,进一步展现搭载Intel Xeon处理器通用伺服器的AI效能可扩展性和广泛可用性,这些伺服器能够满足客户的服务等级协议(SLA)。
MLPerf被普遍认为是AI效能方面最具声誉的基准测试,能够进行公平、可重现的效能比较。英特尔预计将为下次的MLPerf基准测试提交新的AI训练结果。效能持续不断的更新,代表英特尔致力於支援客户,并针对每个AI节点提出解决方案━从低成本的AI处理器,再到网路、云端和企业用户所需的最高效能AI硬体加速器和GPU。