參與本次聯(lián)署的北京前瞻人工智能安全與治理研究院院長、中國科學(xué)院自動(dòng)化研究所研究員曾毅直言,世界尚未準(zhǔn)備好迎接不是可控工具的超級智能。目前我們還沒有堅(jiān)實(shí)的科學(xué)證據(jù)和切實(shí)可行的方法來確保超級智能的安全,使其不會(huì)給人類帶來災(zāi)難性的風(fēng)險(xiǎn)。所謂“超級智能”,是指在所有核心認(rèn)知任務(wù)上全面超越人類能力的人工智能形式。
曾毅認(rèn)為,如果以50年為限,超級智能一定會(huì)到來。當(dāng)超級智能到來的時(shí)候,人類是否能夠做好準(zhǔn)備是關(guān)鍵問題。他認(rèn)為,AI并不是中立的,人類的偏見、歧視、仇恨會(huì)被內(nèi)化到AI中,沒有任何一種構(gòu)造超級智能的方式是沒有風(fēng)險(xiǎn)的。一旦選定了正確的方式去構(gòu)造AI,它的智能水平必然會(huì)超越人類,但與此同時(shí),受益于正確價(jià)值護(hù)欄的超級智能也可以是超級利他的,超級共情的,因此他認(rèn)為擁有自我的AI才會(huì)令人類社會(huì)更安全。
曾毅還預(yù)測,未來的類腦智能體有可能會(huì)使用生物材料,與現(xiàn)在的智能體大多使用硅基材料不同。以前的智能體是存算分離的,而類腦智能的硬件可以存算一體。人們對超級智能體的擔(dān)憂因未知而充滿不確定性。
圖靈獎(jiǎng)得主、深度學(xué)習(xí)三巨頭之一的約書亞·本吉奧也指出,要安全地邁向“超級智能”,我們必須通過科學(xué)手段設(shè)計(jì)出在根本上無法傷害人類的人工智能系統(tǒng)——無論是由于目標(biāo)偏差,還是被惡意利用。同時(shí),他強(qiáng)調(diào)公眾應(yīng)在塑造人類共同未來的決策中擁有更強(qiáng)的話語權(quán)。
值得一提的是,發(fā)起本次倡議的未來生命研究所同期發(fā)布的一項(xiàng)美國全國性民意調(diào)查顯示,公眾對當(dāng)前人工智能的發(fā)展方向普遍不滿。僅有5%的受訪者支持目前“無監(jiān)管的AI開發(fā)現(xiàn)狀”,而高達(dá)73%的受訪者支持建立更為嚴(yán)格的監(jiān)管機(jī)制,另有64%的受訪者認(rèn)為,在科學(xué)界尚未就安全與可控性達(dá)成共識之前,不應(yīng)開發(fā)“超級智能”。
從宏觀趨勢看,AI風(fēng)險(xiǎn)治理的國際分歧正在加劇。美國與歐盟正推動(dòng)不同版本的“AI法案”,其中歐盟強(qiáng)調(diào)透明度與可追溯性,美國則側(cè)重市場自律與行業(yè)標(biāo)準(zhǔn)化。此次倡議或可推動(dòng)G20或聯(lián)合國層面的技術(shù)倫理議題重啟,使AI治理從自律階段走向多邊協(xié)商階段。