近日,北京大學(xué)人工智能研究院孫仲研究員團隊與集成電路學(xué)院研究團隊合作,成功開發(fā)出一種基于阻變存儲器的高精度、可擴展模擬矩陣計算芯片。這一成果首次實現(xiàn)了在精度上能夠與數(shù)字計算相媲美的模擬計算系統(tǒng)。該芯片在處理大規(guī)模MIMO信號檢測等關(guān)鍵科學(xué)問題時,其計算吞吐量和能效比當前頂級數(shù)字處理器(如GPU)提升了百倍至千倍。相關(guān)研究成果于10月13日發(fā)表在《自然·電子學(xué)》期刊上。
對于習慣了數(shù)字計算機(即二進制0和1)的公眾來說,“模擬計算”可能是一個既古老又新奇的概念。孫仲用生動的比喻解釋了這一點:現(xiàn)代所有芯片都是基于數(shù)字計算,數(shù)據(jù)需要先轉(zhuǎn)換成0和1的符號串。例如,數(shù)字“十”在二進制中表示為“1010”。而模擬計算則不需要這層轉(zhuǎn)譯,它可以直接使用連續(xù)的物理量(如電壓、電流)來類比數(shù)學(xué)上的數(shù)字。比如,數(shù)學(xué)上的“十”可以直接用十伏或十毫伏的電壓來表示。
模擬計算機曾在上世紀30到60年代被廣泛應(yīng)用,但隨著計算任務(wù)日益復(fù)雜,其精度瓶頸逐漸顯現(xiàn),最終被數(shù)字計算取代。此次研究的核心正是要解決模擬計算“算不準”的問題。目前市面上主流的CPU和GPU都是數(shù)字芯片,并采用馮諾依曼結(jié)構(gòu),將計算和存儲功能分開,通過01數(shù)字流的編譯、計算和解碼實現(xiàn)信息處理?;谧枳兇鎯ζ鞯哪M計算可以取消“將數(shù)據(jù)轉(zhuǎn)化為二進制數(shù)字流”的過程,同時不必進行“過程性數(shù)據(jù)存儲”,從而將數(shù)據(jù)計算與存儲合二為一,釋放更多算力。
與其他“存算一體”方案相比,孫仲團隊專注于更具挑戰(zhàn)性的矩陣方程求解(AI二階訓(xùn)練的核心)。矩陣求逆操作要求極高的計算精度,時間復(fù)雜度達到立方級。模擬計算憑借物理規(guī)律直接運算的方式,具有低功耗、低延遲、高能效和高并行的優(yōu)勢。只要能夠不斷降低計算誤差并提升計算精度,模擬計算將為傳統(tǒng)GPU的算力解放帶來巨大突破。
在實驗中,團隊成功實現(xiàn)了16×16矩陣的24比特定點數(shù)精度求逆,矩陣方程求解經(jīng)過10次迭代后,相對誤差可低至10??量級。在計算性能方面,當求解32×32矩陣求逆問題時,其算力已超過高端GPU的單核性能;當問題規(guī)模擴大至128×128時,計算吞吐量更是達到頂級數(shù)字處理器的1000倍以上。這意味著傳統(tǒng)GPU需要一天完成的任務(wù),這款芯片只需一分鐘就能搞定。
關(guān)于應(yīng)用前景,孫仲認為模擬計算在未來AI領(lǐng)域?qū)缪葜匾a充角色,尤其是在機器人和人工智能模型訓(xùn)練等計算智能領(lǐng)域。談及與現(xiàn)有計算架構(gòu)的關(guān)系,孫仲強調(diào)未來將是互補共存的局面:CPU作為通用“總指揮”因其成熟與經(jīng)濟性難以被淘汰,GPU則專注于加速矩陣乘法計算,而他們的模擬計算芯片旨在更高效地處理AI等領(lǐng)域最耗能的矩陣逆運算,是對現(xiàn)有算力體系的重要補充。
近日,北京大學(xué)人工智能研究院孫仲研究員團隊與集成電路學(xué)院研究團隊合作,成功研發(fā)了一種基于阻變存儲器的高精度、可擴展模擬矩陣計算芯片
2025-10-24 08:33:43突破瓶頸