开发AI晶片的主要考量需从很多层面着手。针对Arm架构如何加速AI的开发与部署,CTIMES零组件杂志特别专访了Arm应用工程总监徐达勇。对於AI晶片的开发设计,徐达勇表示,开发AI晶片的主要考量取决於不同的应用。举例来说,对於云端应用,最高效能是首要考虑因素,而在IoT装置中,因为使用电池的限制,需要具备较低的功耗。他指出,基本上是从AI的Workloads考量,找到效能和功耗最适合的晶片。此外,还有两个共通的基本要求:其一是AI晶片本身的效能与功耗是否符合效率要求,其二是开发硬体後是否能让软体工程师或演算法工程师方便快速地移植(porting)其机器学习的模型到硬体平台上。
|
Arm应用工程总监徐达勇 |
对於如何透过Arm架构快速开发与部署AI,徐达勇提出了几个关键点。首先是Arm的开放性,Arm提供了开源的软体与工具,如Arm-NN SDK、运算库(compute library)、CMSIS-NN等。这些工具为晶片开发商带来了巨大的方便,省去了从头自行移植的步骤,节省了软体工程师大量的心力。其次是Arm完整的生态系,支援广泛的AI工作负载。AI的工作负载可以在CPU、GPU以及AI处理器(如NPU或DLP)上运作,而目前大约有40亿个装置(包括手机和IoT装置)的AI工作负载都是仰赖Arm的处理器。生态系的完整性为客户提供了更多选择,同时也提供了优化最适於Arm平台的软体/工具,协助客户加速上市时程。
针对Arm架构处理器对於人工智慧与机器学习最大的优势,徐达勇认为,效能与功耗是最基本的门槛,而Arm一直在效能表现与低功耗上领先业界。此外,Arm的生态系、解决方案的可扩充性以及开源软体工具是其三大优势。Arm不仅提供单一解决方案,而是拥有强大的生态系统,具备可扩展性的软体工具等各式解决方案。这些优势让开发者能够更快速地移植他们的机器学习模型和演算法,协助加速上市时程。
在AI应用进程脚步非常快的情况下,徐达勇提到Arm如何加速客户开发的时间。首先,Arm的解决方案支援AI的应用,从小至Cortex-M,一路到Cortex-A、Mali GPU以及NPU。这种可扩充性使得客户能够根据应用选择最适合的效能。其次,Arm提供相应的软体与工具,如运算库、编译器以及CMSIS-NN等,这些工具协助开发者快速移植他们的机器学习模型和演算法,进而加速上市时程。
关於生态系统在Arm的人工智慧发展上的角色与好处,徐达勇说明了生态系提供各式AI开发工具,以及合作夥伴提供优化最适於Arm平台的软体/工具,协助客户加速上市时程。无论是应用领域还是从软硬体及工具的角度来看,Arm的生态系为客户提供了更多选择,同时也节省了开发时间,让客户专注於创新开发。在智能时代来临的今天,Arm的努力与创新持续推动AI的发展与应用,为各行各业带来更多可能性与便利性。