20世紀初,科學家開始對AI進行系統性的研究,至今已超過半世紀的發展史。AI在棋盤遊戲對戰人類的結果,一直是判斷AI進展的標準。在1997年先有IBM深藍戰勝西洋棋王,到2017年AlphaGo擊敗世界圍棋冠軍,隨著計算機運算能力的快速發展,AI的發展與應用已經快步的進入大眾的生活當中。
近幾年AI相關應用如火如荼的展開,在2017 CES展場上詢問度最高的莫過於AWS提供的AI服務解決方案,尤其在Amazon語音助理成為暢銷產品後,各大廠開始聚焦在AI服務,無論是雲端或是嵌入式AI應用,都對其未來發展寄予厚望。
隨著AI應用的普及,我們開始思考,機器要像人,就需要了解人類是如何理解這個世界。Terry Winograd教授認為要實現AI有三個要素: Syntax、Semantics和Inference。
其中理解與分析這個世界構成的元素就是Syntax,在語言學中表示語法,需要了解單字間順序和語法的關係,以及一語雙關的問題。Syntax在機器視覺中可以理解為真實世界的3D結構分析。而Semantics則在解釋這些元素所代表的意義,又可稱為語意,語言學中的語意,大致可分為語言或字面上單純的意義,又或是考慮語境後之語意。最後Inference則表示資料進行分析後的結果預測。
當時,Terry研究AI碰到一些無法解決的問題,拜科技進步所賜,在Big Data、Computation、Talent和Algorithm全部到位的這個年代,尤其結合深度學習與機器學習的崛起,AI的研究開始突破既有困境蓬勃發展。
視覺和聽覺是人類兩個最重要用來接收外界訊息的方式,目前AI兩大應用也分別聚焦在影像辨識和語音辨識。
在雲端語音和影像辨識應用方面,Microchip提供了SAMA5系列MPU,其中SAMA5D2有省電的優勢,適合用於手持式嵌入系統的設備,而SAMA5D4則具備多媒體的硬體加速。Microchip任一系列的MPU產品都可滿足各類型AI產品開發的需求。
針對AI應用的開發,Microchip利用開源平台Yocto Project,已在SAMA5D2 Xplained board整合Google Cloud Platform的Vision API、Speech API和Translate API。因此,無論在雲端語音與影像辨識、Linux系統整合或device drivers的開發,都能一次到位提供全方位的支援。
作者 羅欣然 為 Microchip 工程師
歡迎造訪 http://www.microchip.com/design-centers/32-bit-mpus 瀏覽更多相關技術資料!