10月22日,未來生命研究所宣布,包括AI教父杰弗里·辛頓在內(nèi)的超過800名科技領(lǐng)袖及公眾人物共同簽署了一份倡議,呼吁在“超級智能”技術(shù)被科學(xué)界普遍認(rèn)定為可控、安全,并獲得公眾廣泛支持之前暫停其進(jìn)一步發(fā)展。這份聯(lián)合聲明的簽名名單包含了世界上最有影響力的科技領(lǐng)袖、科學(xué)家和公眾人物,不僅有蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、維珍集團(tuán)董事長理查·布蘭森等科技產(chǎn)業(yè)界大佬,還包括前美國國家安全顧問蘇珊·賴斯、前參謀長聯(lián)席會議主席邁克·馬倫等人,甚至英國王妃梅根、特朗普的盟友史蒂夫·班農(nóng)也出現(xiàn)在簽署名單上,顯示出對國家科技安全的嚴(yán)重?fù)?dān)憂。這種跨越政治立場的聯(lián)合極為罕見,表明超級AI的風(fēng)險(xiǎn)議題已從學(xué)術(shù)圈蔓延至政治與社會治理層面,成為全球公共議題之一。
截至23日中午,這份聲明的簽署人數(shù)已經(jīng)超過3000人。在中國學(xué)術(shù)界,多位知名學(xué)者參與聯(lián)署此次倡議,包括姚期智、清華大學(xué)公共管理學(xué)院院長薛瀾、清華大學(xué)智能產(chǎn)業(yè)研究院院長張亞勤以及人工智能倫理與治理專家曾毅。他們的參與和主張呼應(yīng)了中國長期倡導(dǎo)的“安全、可靠、可控”和“以人為本”的人工智能發(fā)展理念。
簽名者們警告稱,超級智能的前景已經(jīng)引起了人們的關(guān)注,其影響從人類經(jīng)濟(jì)的落伍和權(quán)力的剝奪,自由、公民權(quán)利、尊嚴(yán)和控制權(quán)的喪失,到國家安全風(fēng)險(xiǎn),甚至可能導(dǎo)致人類滅絕。倡議明確指出,超級智能并非傳統(tǒng)意義上的“算法偏見”或“就業(yè)沖擊”問題,而是潛在的系統(tǒng)性風(fēng)險(xiǎn);一旦AI能力全面超越人類,其目標(biāo)函數(shù)若與人類利益錯(cuò)位,可能導(dǎo)致不可逆的社會后果。
事實(shí)上,早在2023年人工智能爆發(fā)元年,出于對AI的擔(dān)憂,包括馬斯克、斯蒂夫·沃茲尼亞克在內(nèi)的1000多名人工智能專家和行業(yè)高管就曾集體簽署過一份公開信,呼吁人類暫停開發(fā)更強(qiáng)大的人工智能至少6個(gè)月。而更早之前,著名物理學(xué)家霍金生前曾與多位科技界名人發(fā)表聯(lián)署公開信,表示人工智能對人類的威脅更甚于核武器。