10月22日,未來(lái)生命研究所宣布,包括AI教父杰弗里·辛頓在內(nèi)的超過(guò)800名科技領(lǐng)袖及公眾人物共同簽署了一份倡議,呼吁在“超級(jí)智能”技術(shù)被科學(xué)界普遍認(rèn)定為可控、安全,并獲得公眾廣泛支持之前暫停其進(jìn)一步發(fā)展。這份聯(lián)合聲明的簽名名單包含了世界上最有影響力的科技領(lǐng)袖、科學(xué)家和公眾人物,不僅有蘋(píng)果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、維珍集團(tuán)董事長(zhǎng)理查·布蘭森等科技產(chǎn)業(yè)界大佬,還包括前美國(guó)國(guó)家安全顧問(wèn)蘇珊·賴(lài)斯、前參謀長(zhǎng)聯(lián)席會(huì)議主席邁克·馬倫等人,甚至英國(guó)王妃梅根、特朗普的盟友史蒂夫·班農(nóng)也出現(xiàn)在簽署名單上,顯示出對(duì)國(guó)家科技安全的嚴(yán)重?fù)?dān)憂(yōu)。這種跨越政治立場(chǎng)的聯(lián)合極為罕見(jiàn),表明超級(jí)AI的風(fēng)險(xiǎn)議題已從學(xué)術(shù)圈蔓延至政治與社會(huì)治理層面,成為全球公共議題之一。
截至23日中午,這份聲明的簽署人數(shù)已經(jīng)超過(guò)3000人。在中國(guó)學(xué)術(shù)界,多位知名學(xué)者參與聯(lián)署此次倡議,包括姚期智、清華大學(xué)公共管理學(xué)院院長(zhǎng)薛瀾、清華大學(xué)智能產(chǎn)業(yè)研究院院長(zhǎng)張亞勤以及人工智能倫理與治理專(zhuān)家曾毅。他們的參與和主張呼應(yīng)了中國(guó)長(zhǎng)期倡導(dǎo)的“安全、可靠、可控”和“以人為本”的人工智能發(fā)展理念。
簽名者們警告稱(chēng),超級(jí)智能的前景已經(jīng)引起了人們的關(guān)注,其影響從人類(lèi)經(jīng)濟(jì)的落伍和權(quán)力的剝奪,自由、公民權(quán)利、尊嚴(yán)和控制權(quán)的喪失,到國(guó)家安全風(fēng)險(xiǎn),甚至可能導(dǎo)致人類(lèi)滅絕。倡議明確指出,超級(jí)智能并非傳統(tǒng)意義上的“算法偏見(jiàn)”或“就業(yè)沖擊”問(wèn)題,而是潛在的系統(tǒng)性風(fēng)險(xiǎn);一旦AI能力全面超越人類(lèi),其目標(biāo)函數(shù)若與人類(lèi)利益錯(cuò)位,可能導(dǎo)致不可逆的社會(huì)后果。
事實(shí)上,早在2023年人工智能爆發(fā)元年,出于對(duì)AI的擔(dān)憂(yōu),包括馬斯克、斯蒂夫·沃茲尼亞克在內(nèi)的1000多名人工智能專(zhuān)家和行業(yè)高管就曾集體簽署過(guò)一份公開(kāi)信,呼吁人類(lèi)暫停開(kāi)發(fā)更強(qiáng)大的人工智能至少6個(gè)月。而更早之前,著名物理學(xué)家霍金生前曾與多位科技界名人發(fā)表聯(lián)署公開(kāi)信,表示人工智能對(duì)人類(lèi)的威脅更甚于核武器。
北京前瞻人工智能安全與治理研究院院長(zhǎng)、中國(guó)科學(xué)院自動(dòng)化研究所研究員曾毅在個(gè)人微信朋友圈直言:“世界尚未準(zhǔn)備好迎接不是可控工具的超級(jí)智能?!彼J(rèn)為目前我們還沒(méi)有堅(jiān)實(shí)的科學(xué)證據(jù)和切實(shí)可行的方法來(lái)確保超級(jí)智能的安全,使其不會(huì)給人類(lèi)帶來(lái)災(zāi)難性的風(fēng)險(xiǎn)。
所謂“超級(jí)智能”,是指在所有核心認(rèn)知任務(wù)上全面超越人類(lèi)能力的人工智能形式。曾毅預(yù)測(cè),如果以50年為限,超級(jí)智能一定會(huì)到來(lái)。他認(rèn)為,當(dāng)超級(jí)智能到來(lái)的時(shí)候,人類(lèi)是否能夠做好準(zhǔn)備是一個(gè)關(guān)鍵問(wèn)題。他強(qiáng)調(diào),沒(méi)有任何一種構(gòu)造超級(jí)智能的方式是沒(méi)有風(fēng)險(xiǎn)的,但受益于正確價(jià)值護(hù)欄的超級(jí)智能也可以是超級(jí)利他的,超級(jí)共情的,因此擁有自我的AI才會(huì)令人類(lèi)社會(huì)更安全。
圖靈獎(jiǎng)得主、深度學(xué)習(xí)三巨頭之一的約書(shū)亞·本吉奧也指出,要安全地邁向“超級(jí)智能”,我們必須通過(guò)科學(xué)手段設(shè)計(jì)出在根本上無(wú)法傷害人類(lèi)的人工智能系統(tǒng)。同時(shí)他曾多次在公開(kāi)場(chǎng)合強(qiáng)調(diào),公眾也應(yīng)在塑造人類(lèi)共同未來(lái)的決策中擁有更強(qiáng)的話語(yǔ)權(quán)。
未來(lái)生命研究所同期還發(fā)布了一項(xiàng)美國(guó)全國(guó)性民意調(diào)查,顯示公眾對(duì)當(dāng)前人工智能的發(fā)展方向普遍不滿(mǎn)。僅有5%的受訪者支持目前“無(wú)監(jiān)管的AI開(kāi)發(fā)現(xiàn)狀”,而高達(dá)73%的受訪者支持建立更為嚴(yán)格的監(jiān)管機(jī)制,另有64%的受訪者認(rèn)為,在科學(xué)界尚未就安全與可控性達(dá)成共識(shí)之前,不應(yīng)開(kāi)發(fā)“超級(jí)智能”。
從宏觀趨勢(shì)看,AI風(fēng)險(xiǎn)治理的國(guó)際分歧正在加劇。美國(guó)與歐盟正推動(dòng)不同版本的“AI法案”,其中歐盟強(qiáng)調(diào)透明度與可追溯性,美國(guó)則側(cè)重市場(chǎng)自律與行業(yè)標(biāo)準(zhǔn)化。有分析認(rèn)為,此次倡議或可推動(dòng)G20或聯(lián)合國(guó)層面的技術(shù)倫理議題重啟,使AI治理從自律階段走向多邊協(xié)商階段。