AI人工智慧与自驾车是目前全世界两大热门研究领域,自驾车更是AI人工智慧技术的重要应用领域,预估2025年全球自驾车相关产值上看420亿美金。在科技部的经费补助之下,国立交通大学电子研究所郭峻因教授团队结合AI人工智慧与自驾车等两大热门研究领域,研发「自驾车智慧之眼-嵌入式AI物件辨识系统」技术深耕八年有成,研究成果超越国际研究水准,自105年来已获得国内28家厂商青睐,进行59件产学合作、技术移转与技术谘询,产学效益丰硕。
|
/news/2019/06/12/1355544560S.jpg |
自动标记工具(ezLabel)获AUDI Innovation Award两项大奖
AI人工智慧聪慧如人,可以替人类分析与辨识影像内的各式物件,这些智慧归功於由人类为AI标记好的影像教材资料、复杂的软体演算法及强大的硬体计算能力。郭教授团队目标藉由分析影像实现自驾车/进阶驾驶辅助系统(ADAS),成功开发嵌入式电脑视觉深度学习技术,透过快速自动化标记工具,产生大量供AI人工智慧学习的资料库,搭配团队开发的即时软体演算法,降低了AI电脑视觉所需之运算平台成本,无需昂贵的GPU运算平台。郭教授表示,计画团队开发出全世界第一套快速视讯资料自动化标记工具(ezLabel 2.0),用来标记并准备供AI学习的资料,其标记效率超过目前现有手动资料标记工具达10-15倍以上,并获得於AUDI汽车所主办之第一届台湾AUDI Innovation Award两项大奖,已获得国内多家厂商进行试用,??响相当不错。此外,郭教授团队已经建置超过1,500万笔适合台湾地区之自驾车影像资料库,这些资料有助於开发适合台湾地区之AI自驾车物件辨识技术。
嵌入式深度学习模型可侦测200公尺外车辆,超越现有技术4倍
在高精度嵌入式AI深度学习演算法开发上,郭教授团队开发出最远可侦测超过200公尺外车辆的嵌入式深度学习演算法,超越现阶段文献标竿演算法(YOLO v2) 4倍,且在运算复杂度相当下,准确度高於YOLO v2约10% mAP(平均准确度),可於 nVidia自驾车平台 (DRIVE-PX2)上即时运算,适用於各式天候,非常适合自驾车/ADAS应用。另外,郭教授团队也开发出低功耗适合嵌入式SOC应用之AI深度学习物件辨识演算法(NCTU SSD lite),在相同准确度下其模型大小仅为YOLO v2的7%,运算复杂度仅为 YOLO v2模型的 27%,可於 TI TDA2X 与国内厂商所研发的车规AI 晶片(iCatch V37)上达到即时物件侦测运算效能。另外,郭教授团队结合物件侦测与物件分割之深度学习技术,针对自驾车应用开发出多重功能ADAS系统,可同时支援各式ADAS功能,包含LDWS/FCWS/RCWS/ACC/AEB/BSD等,并可於嵌入式系统上实现。
首创深度学习行为预测技术(以预测後方车辆3秒内是否超车)
郭教授团队将深度学习技术延伸应用於物件行为预测甚至驾驶控制,开发出全球首见可预测後方车辆(汽车或机车)是否超车之深度学习行为预测技术,於行车时可准确预测後方车辆於未来3秒钟是否超车,可作为车辆驾驶人第三只眼睛,守护行车安全。
郭教授团队所产出之嵌入式AI自驾车快速资料标记工具、自驾车图资、物件侦测与行为预测深度学习技术之产业应用潜力相当大,目前合作厂商已达28家,未来潜在的合作厂商包含AI晶片公司、车电系统公司与自驾车图资公司等。