近日,北京大學(xué)人工智能研究院孫仲研究員團(tuán)隊(duì)與集成電路學(xué)院研究團(tuán)隊(duì)合作,成功研發(fā)了一種基于阻變存儲(chǔ)器的高精度、可擴(kuò)展模擬矩陣計(jì)算芯片。這款芯片在解決大規(guī)模MIMO信號(hào)檢測(cè)等關(guān)鍵科學(xué)問(wèn)題時(shí),計(jì)算吞吐量和能效比當(dāng)前頂級(jí)數(shù)字處理器(GPU)高出百倍至千倍。相關(guān)研究成果發(fā)表在10月13日的《自然·電子學(xué)》期刊上。
對(duì)于大多數(shù)習(xí)慣于數(shù)字計(jì)算機(jī)(0和1)的公眾來(lái)說(shuō),“模擬計(jì)算”可能既古老又新奇。孫仲用生動(dòng)的比喻解釋了這一概念:目前所有芯片都采用數(shù)字計(jì)算,數(shù)據(jù)需要先轉(zhuǎn)換成0和1的符號(hào)串。例如,數(shù)字“十”需轉(zhuǎn)譯為“1010”。而在模擬計(jì)算中,無(wú)需這層轉(zhuǎn)譯,可以直接使用連續(xù)的物理量如電壓或電流來(lái)表示數(shù)學(xué)上的數(shù)字。比如,可以用十伏或十毫伏的電壓直接表示數(shù)學(xué)上的“十”。
模擬計(jì)算機(jī)曾在上世紀(jì)30-60年代廣泛應(yīng)用,但隨著計(jì)算任務(wù)復(fù)雜度增加,其精度瓶頸逐漸顯現(xiàn),最終被數(shù)字計(jì)算取代。此次研究的核心正是要解決模擬計(jì)算“算不準(zhǔn)”的問(wèn)題。
當(dāng)前市面上主流的CPU和GPU都是數(shù)字芯片,采用馮諾依曼結(jié)構(gòu),將計(jì)算和存儲(chǔ)功能分開(kāi)。而基于阻變存儲(chǔ)器的模擬計(jì)算取消了將數(shù)據(jù)轉(zhuǎn)化為二進(jìn)制數(shù)字流的過(guò)程,同時(shí)不必進(jìn)行過(guò)程性數(shù)據(jù)存儲(chǔ),從而將數(shù)據(jù)計(jì)算與存儲(chǔ)合為一體,實(shí)現(xiàn)算力解放。
與其他“存算一體”方案相比,孫仲團(tuán)隊(duì)專注于更具挑戰(zhàn)性的矩陣方程求解(AI二階訓(xùn)練的核心)。矩陣求逆操作要求極高精度,時(shí)間復(fù)雜度達(dá)到立方級(jí)。模擬計(jì)算憑借物理規(guī)律直接運(yùn)算的方式,具有低功耗、低延遲、高能效、高并行的優(yōu)勢(shì)。只要能夠不斷降低計(jì)算誤差,提升計(jì)算精度,將為傳統(tǒng)GPU的算力帶來(lái)顯著突破。