北京前瞻人工智能安全與治理研究院院長、中國科學(xué)院自動化研究所研究員曾毅在個人微信朋友圈直言:“世界尚未準(zhǔn)備好迎接不是可控工具的超級智能。”他認(rèn)為目前我們還沒有堅實的科學(xué)證據(jù)和切實可行的方法來確保超級智能的安全,使其不會給人類帶來災(zāi)難性的風(fēng)險。
所謂“超級智能”,是指在所有核心認(rèn)知任務(wù)上全面超越人類能力的人工智能形式。曾毅預(yù)測,如果以50年為限,超級智能一定會到來。他認(rèn)為,當(dāng)超級智能到來的時候,人類是否能夠做好準(zhǔn)備是一個關(guān)鍵問題。他強調(diào),沒有任何一種構(gòu)造超級智能的方式是沒有風(fēng)險的,但受益于正確價值護欄的超級智能也可以是超級利他的,超級共情的,因此擁有自我的AI才會令人類社會更安全。
圖靈獎得主、深度學(xué)習(xí)三巨頭之一的約書亞·本吉奧也指出,要安全地邁向“超級智能”,我們必須通過科學(xué)手段設(shè)計出在根本上無法傷害人類的人工智能系統(tǒng)。同時他曾多次在公開場合強調(diào),公眾也應(yīng)在塑造人類共同未來的決策中擁有更強的話語權(quán)。
未來生命研究所同期還發(fā)布了一項美國全國性民意調(diào)查,顯示公眾對當(dāng)前人工智能的發(fā)展方向普遍不滿。僅有5%的受訪者支持目前“無監(jiān)管的AI開發(fā)現(xiàn)狀”,而高達73%的受訪者支持建立更為嚴(yán)格的監(jiān)管機制,另有64%的受訪者認(rèn)為,在科學(xué)界尚未就安全與可控性達成共識之前,不應(yīng)開發(fā)“超級智能”。
從宏觀趨勢看,AI風(fēng)險治理的國際分歧正在加劇。美國與歐盟正推動不同版本的“AI法案”,其中歐盟強調(diào)透明度與可追溯性,美國則側(cè)重市場自律與行業(yè)標(biāo)準(zhǔn)化。有分析認(rèn)為,此次倡議或可推動G20或聯(lián)合國層面的技術(shù)倫理議題重啟,使AI治理從自律階段走向多邊協(xié)商階段。