科技日報(bào)北京8月23日電 (記者張夢然)《自然》23日發(fā)表的研究報(bào)道了一種能效為傳統(tǒng)數(shù)字計(jì)算機(jī)芯片14倍的人工智能(AI)模擬芯片。這一由IBM研究實(shí)驗(yàn)室開發(fā)的芯片在語音識別上的效率超過了通用處理器。該技術(shù)或能突破當(dāng)前AI開發(fā)中因算力性能不足和效率不高而遇到的瓶頸。
隨著AI技術(shù)的崛起,對能源和資源的需求也隨之上升。在語音識別領(lǐng)域,軟件升級極大提升了自動(dòng)轉(zhuǎn)寫的準(zhǔn)確率,但由于在存儲(chǔ)器與處理器之間移動(dòng)的運(yùn)算量不斷增加,硬件無法跟上訓(xùn)練和運(yùn)行這些模型所需的數(shù)以百萬計(jì)的參數(shù)。研究人員提出的一個(gè)解決辦法是,使用“存內(nèi)計(jì)算”(CiM,或稱模擬AI)芯片。模擬AI系統(tǒng)通過直接在它自己的存儲(chǔ)器內(nèi)執(zhí)行運(yùn)算來防止低效,而數(shù)字處理器需要額外時(shí)間和能源在存儲(chǔ)器和處理器之間移動(dòng)數(shù)據(jù)。模擬AI芯片預(yù)計(jì)能極大提升AI計(jì)算的能效,但對此的實(shí)際演示一直缺乏。
研究團(tuán)隊(duì)此次開發(fā)了一個(gè)14納米的模擬芯片,在34個(gè)模塊(tile)中含有3500萬個(gè)相變化內(nèi)存單元。研究團(tuán)隊(duì)用兩個(gè)語音識別軟件在語言處理能力上測試了該芯片的效率,這兩個(gè)軟件分別是一個(gè)小網(wǎng)絡(luò)(谷歌語音命令)和一個(gè)大網(wǎng)絡(luò)(Librispeech語音識別),并在自然語言處理任務(wù)上與行業(yè)標(biāo)準(zhǔn)進(jìn)行對比。小網(wǎng)絡(luò)的性能和準(zhǔn)確率與當(dāng)前的數(shù)字技術(shù)相當(dāng)。對于更大的Librispeech模型來說,該芯片能達(dá)到每秒每瓦12.4萬億次運(yùn)算,系統(tǒng)性能估計(jì)最高能達(dá)到傳統(tǒng)通用處理器的14倍。
研究團(tuán)隊(duì)總結(jié)道,該研究在小模型和大模型中同時(shí)驗(yàn)證了模擬AI技術(shù)的性能和效率,有望成為數(shù)字系統(tǒng)的商業(yè)可行的替代選擇。
相關(guān)稿件