我國成功研制新型芯片 模擬計算實(shí)現(xiàn)突破。近日,北京大學(xué)人工智能研究院孫仲研究員團(tuán)隊(duì)與集成電路學(xué)院研究團(tuán)隊(duì)合作,成功研發(fā)了一種基于阻變存儲器的高精度、可擴(kuò)展模擬矩陣計算芯片。這種芯片首次實(shí)現(xiàn)了在精度上可以與數(shù)字計算相媲美的模擬計算系統(tǒng)。
該芯片在解決大規(guī)模MIMO信號檢測等關(guān)鍵科學(xué)問題時,其計算吞吐量和能效比當(dāng)前頂級數(shù)字處理器(如GPU)提升了百倍至千倍。相關(guān)研究成果于10月13日在《自然·電子學(xué)》期刊上發(fā)表。
對于大多數(shù)習(xí)慣使用數(shù)字計算機(jī)(即基于0和1的二進(jìn)制系統(tǒng))的公眾來說,“模擬計算”是一個既古老又新奇的概念。孫仲用生動的比喻解釋了這一概念:“現(xiàn)在的所有芯片都是數(shù)字計算,數(shù)據(jù)都需要先轉(zhuǎn)換成0和1的符號串。比如數(shù)字‘十’,需要轉(zhuǎn)譯成‘1’和‘0’,計為‘1010’?!倍M計算則不需要這層“轉(zhuǎn)譯”,它直接利用連續(xù)的物理量(如電壓、電流)來類比數(shù)學(xué)上的數(shù)值。例如,數(shù)學(xué)上的“十”可以直接用十伏或十毫伏的電壓表示。
模擬計算機(jī)曾在上世紀(jì)30到60年代被廣泛應(yīng)用,但隨著計算任務(wù)變得越來越復(fù)雜,其精度瓶頸逐漸顯現(xiàn),最終被數(shù)字計算取代。此次研究的核心正是要解決模擬計算中“算不準(zhǔn)”的問題。
目前市面上主流的CPU和GPU都是數(shù)字芯片,采用馮諾依曼結(jié)構(gòu),將計算和存儲功能分開,通過01數(shù)字流的編譯、計算和解碼實(shí)現(xiàn)信息處理和傳輸?;谧枳兇鎯ζ鞯哪M計算取消了“將數(shù)據(jù)轉(zhuǎn)化為二進(jìn)制數(shù)字流”的過程,也不必進(jìn)行“過程性數(shù)據(jù)存儲”,從而將數(shù)據(jù)計算和存儲合為一體,大大解放了算力。
與其他“存算一體”方案相比,孫仲團(tuán)隊(duì)專注于更具挑戰(zhàn)性的矩陣方程求解(AI二階訓(xùn)練的核心)。矩陣求逆操作要求極高的計算精度,時間復(fù)雜度達(dá)到了立方級。模擬計算憑借物理規(guī)律直接運(yùn)算的方式,具有低功耗、低延遲、高能效和高并行的優(yōu)勢。只要能夠不斷降低計算誤差,提升計算精度,模擬計算將為傳統(tǒng)GPU帶來顯著的算力突破。
在實(shí)驗(yàn)中,團(tuán)隊(duì)成功實(shí)現(xiàn)了16×16矩陣的24比特定點(diǎn)數(shù)精度求逆,經(jīng)過10次迭代后,相對誤差可低至10??量級。在計算性能方面,當(dāng)求解32×32矩陣求逆問題時,其算力已超過高端GPU的單核性能;當(dāng)問題規(guī)模擴(kuò)大至128×128時,計算吞吐量更是達(dá)到頂級數(shù)字處理器的1000倍以上。這意味著,傳統(tǒng)GPU需要一天完成的任務(wù),這款芯片只需一分鐘就能搞定。
關(guān)于應(yīng)用前景,孫仲認(rèn)為模擬計算在未來AI領(lǐng)域?qū)⒆鳛閺?qiáng)大的補(bǔ)充,最有可能快速落地的場景是計算智能領(lǐng)域,如機(jī)器人和人工智能模型的訓(xùn)練。談及與現(xiàn)有計算架構(gòu)的關(guān)系,孫仲強(qiáng)調(diào)未來將是互補(bǔ)共存:CPU作為通用“總指揮”因其成熟與經(jīng)濟(jì)性難以被淘汰,GPU則專注于加速矩陣乘法計算。模擬計算芯片旨在更高效地處理AI等領(lǐng)域最耗能的矩陣逆運(yùn)算,是對現(xiàn)有算力體系的有力補(bǔ)充。