人工智慧(AI)的例子無處不在。我們對於AI的使用可能超出想像,並且在許多方面視為理所當然。智慧手機助理就是一個很好的例子,儘管我們可能並不認為這與AI有關。許多情況下,我們已經習慣於與Siri或Google Assistant的互動。同樣,臉部辨識已成為新型智慧手機的標準解鎖功能。
機器學習屬於AI的一個子集,原理是通過訓練基於電腦的神經網路模型來識別設定的模型或聲音。在神經網路完成訓練後,就可以推理出結果。例如,如果我們用數百張狗和貓的圖像訓練神經網路,那麼它應該能夠正確地識別圖片中是狗還是貓。網路模型會確定答案,並指示預測的類別概率。
圖一 : 機器學習的原理是通過訓練基於電腦的神經網路模型來識別設定的模型或聲音。(source:恩智浦) |
|
隨著基於機器學習的應用越來越深入日常生活,系統開發人員已經逐漸意識到神經網路的當前運行方式不一定正確。讓我們回到上面的例子,如果我們向神經網路顯示一匹馬的圖片,那麼僅經過貓狗推理訓練的神經網路不得不在已訓練的類別中選擇一個。更令人擔憂的是,給出錯誤預測的概率很高,您甚至都不會注意到,這個模型就這樣無聲無息地失敗了。
然而,人類應對類似情況的方法大不相同,我們會使用更合理的決策方法。我們希望神經網路誠實地回答:我不知道答案,或者從未見過馬的圖像。上面的舉例雖然非常簡單,但卻足以說明神經網路有缺陷,難以在充滿突發情況和不確定性的人類世界中運作。現實情況是,許多工業和汽車系統仍在繼續開發神經網路,即使在某些情況下會存在這些問題。
恩智浦多年來投資構建AI功能,並一直在關注此類缺陷。智慧手機助理錯誤地推斷語音,其危險性與工業或醫療保健環境中的錯誤也大相徑庭。因此,我們正在為客戶提供先進的機器學習解決方案,並持續研究一種方法,名為「可解釋的AI」(xAI)。xAI通過添加更合理、類似於人的決策方法和額外的確定性維度,擴展了機器學習的推理和計算概率能力。xAI將AI的所有優勢與推理機制相結合,使其更接近人類的反應方式。
圖二 : xAI通過添加更合理、類似於人的決策方法和額外的確定性維度,擴展了機器學習的推理和計算概率能力。(source:GPUONCLOUD) |
|
假設您是自動駕駛汽車的乘客,如果車輛緩慢地行駛,您自然會想知道為什麼車輛要如此小心。如果駕駛員是人類,您可能會問:為什麼這麼慢。駕駛員會解釋說,下大雨時的能見度很差,他們不確定前面會有什麼危險。解釋基於不確定性,xAI的決策便遵循類似的行為模式來表達模型不確定的推理。
恩智浦已經在研究如何將xAI功能整合到汽車、工業和醫療保健系統開發的機器學習解決方案中。
鑒於史無前例的全球新冠肺炎(COVID-19)大流行,xAI研究團隊認為,恩智浦xAI可能有助於實現對患者疾病的快速檢測。雖然現在研究尚處於初期,但是已有的證據點讓我們深受鼓舞。另外,我們與一些醫院建立了互動,積極瞭解xAI技術對全球面臨的醫療保健挑戰有何幫助。
除了規定的PCR測試和診斷方案,CT放射學和X射線影像的使用提供了快速的替代檢測功能。通過適當培訓的xAI模型來處理CT和X射線影像,就能區分未感染病例和感染病例。xAI能夠提供即時推理可信度和可解釋的洞察,以幫助臨床人員確定下一步治療方案。
xAI研究團隊相信他們的推理模型已經趨於成熟,目前正在與歐洲和美洲的醫學和AI專家進行討論。但是,為了進一步推動研究,我們必須獲取更大的匿名資料集,積極尋求新冠肺炎研究人員和潛在合作夥伴的回饋,共同合作以改進這種檢測技術。
xAI使我們能夠在涉及不確定性的情況下,作出更接近人類的反應。它為基於概率的決策分類增加了確定性和可行度。恩智浦在汽車、工業和醫療保健應用的關鍵安全系統中發現了xAI的機會。
(本文作者Lars Reger為恩智浦資深副總裁兼首席技術官)