因此,我們有理由期待,人工智能加速的神經(jīng)科學將在幾年內(nèi)產(chǎn)生快速進展。
我們應(yīng)該在這個基本圖景中添加一點,那就是過去幾年中學到的,或正在學習到的,一些關(guān)于人工智能本身的知識,可能會幫助推進神經(jīng)科學,即使神經(jīng)科學研究仍然只由人類來進行。
首先,「可解釋性」是一個明顯的例子。
盡管表面上,生物神經(jīng)元和人工神經(jīng)元以完全不同的方式運作,但「簡單單元組成的的分布式、訓練過的網(wǎng)絡(luò)如何協(xié)同工作以執(zhí)行重要計算」,這個基本問題是相同的。
舉例來說,AI系統(tǒng)可解釋性研究人員發(fā)現(xiàn)的一種計算機制,最近在小鼠大腦中被重新發(fā)現(xiàn)。
論文地址:https://www.biorxiv.org/content/10.1101/2023.03.15.532836v1
相比真實神經(jīng)網(wǎng)絡(luò),對人工神經(jīng)網(wǎng)絡(luò)進行實驗要容易得多,因此AI可解釋性很可能成為提高我們對神經(jīng)科學理解的工具。
此外,強大的人工智能本身可能比人類更能開發(fā)和應(yīng)用這個工具。
除了可解釋性之外,我們從AI那里學到的關(guān)于智能系統(tǒng)如何訓練的知識,很可能在神經(jīng)科學領(lǐng)域引發(fā)一場革命。
Amodei本人在從事神經(jīng)科學研究時發(fā)現(xiàn),曾經(jīng)很多人關(guān)注的關(guān)于「學習」的問題,現(xiàn)在看來是錯誤的,因為那時還沒有「擴展假說」(scaling hypothesis),或Rich Sutton提出的「the bitter lesson」這樣的概念。
大量數(shù)據(jù)加上簡單的目標函數(shù)就可以驅(qū)動極其復(fù)雜行為,這個想法使得理解目標函數(shù)和架構(gòu)偏差(architectural biases)變得更有意思,同時也讓「涌現(xiàn)」過程的復(fù)雜計算細節(jié)(emergent computation)變得不那么有趣。
Amodei表示,近年來自己并沒有密切關(guān)注這個領(lǐng)域,但能隱約感覺到,計算神經(jīng)科學家們?nèi)匀粵]有完全吸收這個教訓。
近日,著名物理學家、諾貝爾獎獲得者丁肇中教授現(xiàn)身西安交通大學,引起了廣泛關(guān)注。許多網(wǎng)友表示,課本中的傳奇人物竟然來到了現(xiàn)實生活中,讓人倍感激動與欽佩。
2024-10-24 17:14:41諾貝爾獎獲得者丁肇中現(xiàn)身西安交大2019年10月9日,諾貝爾化學獎花落鋰電池領(lǐng)域,三名研究鋰電池的先驅(qū)摘得殊榮,吉野彰是三位獲獎?wù)呃锬昙o最輕的一位。
2024-07-05 14:48:56被取代!諾貝爾獎獲得者:2050年加油站會消失