大聯大控股宣佈,其旗下世平推出基於恩智浦(NXP)i.MX8M Plus晶片的OP-Killer AI原型開發板方案。
|
大聯大世平集團推出基於NXP產品的OP-Killer AI原型開發板方案 |
科技日新月異地進步,讓AI應用悄然融入於人們的生活中。而在不久的將來,邊緣計算(Edge Computing)將會為此領域帶來另一個高峰。借由神經網絡處理晶片(Neural Processing Unit,NPU)的誕生,使得AI計算能力有著飛躍性的成長。並驅動著機器學習、人工智能等應用在工業、醫療、物聯網等各個領域迅速落地,從而為人們提供更智能、完善的服務。
為了幫助開發者快速開發AI應用,大聯大基於NXP i.MX8M Plus晶片推出了OP-Killer AI原型開發板方案,該方案提供一套基於OP-Killer EVM Board的AI相關應用產品開發原型與技術資源,即使是初入此領域者的開發者也能夠快速地上手設計機器學習相關應用。
此方案由SOM Board和I/O Board兩塊開發板組成。其中,SOM Board為主要開發板,其採用NXP i.MX8M Plus平臺為基礎,提供1.6GHz或1.8GHz兩種規格的4x Cortex-A53處理器以及1200萬畫素的圖像處理器ISP、2.3TOPS算力的神經網絡處理器NPU、圖形加速器2D/3D GPU、音效數位訊號處理器HiFi 4 DSP等強大架構。
其中,神經運算處理器NPU為此晶片的核心亮點,借助其獨特的硬體架構特性,能夠在低功耗的環境下提供極高的計算效能,從而大幅度提高機器學習的推理效益。
而I/O Board為擴充板,具有豐富的接口,能夠提供多樣化的應用支援,使其在實際應用時更具靈活性。借助此開發板,可在如物聯網(IoT)、工業4.0(Industry 4.0)、自動駕駛汽車(Autonomous Cars)等領域,落實邊緣計算(Edge Computing)的概念,創造更好的應用價值。
除此之外,此方案還搭配NXP的機器學習開發環境eIQ(Edge Intelligence),能夠快速地使用TensorFlow Lite、ONNX、ArmNN、DeepViewRT等深度學習框架。借助此優勢,用戶僅需將視頻、聲音等相應的資料,授權給任何一個深度學習框架進行推理(Inference),即可快速解析神經網路架構來得到結果。
且該框架將會通過OpenVX資料庫與NPU作最佳化的加速運算。經實際測試,MobileNet-SSD物件檢測推理速度可達到約每秒80張FPS。MobileNet物件分類推理速度能夠達到每秒329張FPS。