5G、AI、IoT(物联网)可说是近几年半导体产业最热门的议题,因应5G时代AI边缘运算需求持续增加,如何提升IoT晶片AI运算效率却不增加功耗,已成为IC设计产业难题。
对此,TwIoTA(台湾物联网产业技术协会)理事长,同时也是力积电董事长黄崇仁,受主办单位JASA嵌入式系统技术协会之邀,昨(20)日於2019日本嵌入式&物联网技术大展(ET & IoT Technology 2019)的专题演讲当中,说明力积电开发中的AI晶片(AI Memory)技术,将MCU与DRAM整合到单一晶片上,并让记忆体资料可依照需求进行非循序存取,进而提升影像神经网路运算10倍处理效率,让IC设计业者开发出体积更小的单晶片电脑(Single Chip Computer),进而降低AIoT应用服务设备开发成本。
AIM技术将记忆体与处理器整合至单一晶片 提升记忆体资料处理效率
黄崇仁表示,人类大脑有大约10的11次方个神经元(neuron)与10的15次方个突触(synaptic),形成一个连接线路高达数千英里的立体性神经网路架构,但是整个大脑的耗电量只有25瓦,可说是非常省电。力积电在研究分析大脑神经元运作架构之後,耗费许久开发出AI晶片(AI Memory,AIM)技术,协助IC设计业者可以开发出给AI运算用的AI晶片,不仅低耗电,AI运算效率也能符合应用需求。
黄崇仁指出,IC设计业者可以透过AIM Innovation Service Platform架构,与力积电、智成电子、爱普科技合作,将CPU与DRAM相关IP放在同一颗晶片中,如此一来,MCU到DRAM的资料传输宽度,可以从常用的32位元大幅提升至4096位元,不仅增加资料传输频宽,并且达到低延迟与低耗电效果,甚至还可以把WiFi晶片功能包进去,让单一晶片可以获得相当於单晶片电脑所需功能,并能降低晶片耗电量。
此外,由於在范纽曼型架构(von Neumann architecture)下,传统AI运算上会碰到的频颈是资料需要循序处理,不符合AI运算情境上其实是要能非循序存取的需求。而力积电的AI Memory技术,就可开发出後范纽曼型架构的记忆体处理方式,除了将CPU到DRAM的频宽大幅提升,甚至可以在记忆体存取上加入控制电路,以非循序存取的方式高速读取DRAM资料,进而提升AI运算执行效率。
AIM技术可提升AI运算效率 并降低所需功耗
以行车安全最需要的ADAS(先进驾驶辅助系统,Advanced Driver Assistance Systems)应用来说,若是采用AIM技术所开发的单晶片,搭配影像神经网路加速运算程式(Video Neuron Network Accelerator,VNNA),在进行1080p RGB影像物件分离处理上,可以达到10倍的执行效率,但耗电量却只要原来的十分之一,可说是非常省电又有AI运算效率。同样的架构与技术可以让自驾车、无人车、摄影机、影像监控等晶片供应业者采用,协助相关晶片业者开发出具有特定领域的AI加速晶片产品。
台日半导体产业可在RISC-V领域进行上下游合作
在专题演讲当中,黄崇仁理事长也同步介绍由TwIoTA所倡议成立的台湾RISC-V联盟(RISC-V Taiwan Alliance,RVTA)与日本业界合作,共同加速RISC-V产业发展。并介绍台湾RISC-V供应链与IC设计生产代工服务,也希??日本业者若有RISC-V开发需求,可以跟台湾的半导体产业上中下游合作,进而开发更多5G、AI与IoT应用。