大联大控股宣布,其旗下世平推出基於恩智浦(NXP)i.MX8M Plus晶片的OP-Killer AI原型开发板方案。
|
大联大世平集团推出基於NXP产品的OP-Killer AI原型开发板方案 |
科技日新月异地进步,让AI应用悄然融入於人们的生活中。而在不久的将来,边缘计算(Edge Computing)将会为此领域带来另一个高峰。借由神经网络处理晶片(Neural Processing Unit,NPU)的诞生,使得AI计算能力有着飞跃性的成长。并驱动着机器学习、人工智能等应用在工业、医疗、物联网等各个领域迅速落地,从而为人们提供更智能、完善的服务。
为了帮助开发者快速开发AI应用,大联大基於NXP i.MX8M Plus晶片推出了OP-Killer AI原型开发板方案,该方案提供一套基於OP-Killer EVM Board的AI相关应用产品开发原型与技术资源,即使是初入此领域者的开发者也能够快速地上手设计机器学习相关应用。
此方案由SOM Board和I/O Board两块开发板组成。其中,SOM Board为主要开发板,其采用NXP i.MX8M Plus平台为基础,提供1.6GHz或1.8GHz两种规格的4x Cortex-A53处理器以及1200万画素的图像处理器ISP、2.3TOPS算力的神经网络处理器NPU、图形加速器2D/3D GPU、音效数位讯号处理器HiFi 4 DSP等强大架构。
其中,神经运算处理器NPU为此晶片的核心亮点,借助其独特的硬体架构特性,能够在低功耗的环境下提供极高的计算效能,从而大幅度提高机器学习的推理效益。
而I/O Board为扩充板,具有丰富的接囗,能够提供多样化的应用支援,使其在实际应用时更具灵活性。借助此开发板,可在如物联网(IoT)、工业4.0(Industry 4.0)、自动驾驶汽车(Autonomous Cars)等领域,落实边缘计算(Edge Computing)的概念,创造更好的应用价值。
除此之外,此方案还搭配NXP的机器学习开发环境eIQ(Edge Intelligence),能够快速地使用TensorFlow Lite、ONNX、ArmNN、DeepViewRT等深度学习框架。借助此优势,用户仅需将视频、声音等相应的资料,授权给任何一个深度学习框架进行推理(Inference),即可快速解析神经网路架构来得到结果。
且该框架将会通过OpenVX资料库与NPU作最隹化的加速运算。经实际测试,MobileNet-SSD物件检测推理速度可达到约每秒80张FPS。MobileNet物件分类推理速度能够达到每秒329张FPS。