在本周三Sifted峰會(huì)的爐邊談話中,谷歌前首席執(zhí)行官埃里克·施密特發(fā)出警告,提醒人們注意AI被黑客攻擊和濫用的重大風(fēng)險(xiǎn)。施密特曾在2001-2011年間擔(dān)任谷歌CEO。他指出,無(wú)論是開(kāi)源還是閉源模型,都可能被黑客攻破,從而移除安全防護(hù)機(jī)制。這些模型在訓(xùn)練過(guò)程中學(xué)到了很多東西,甚至可能學(xué)會(huì)了如何殺人。所有主要公司都讓這些模型無(wú)法回答此類問(wèn)題,但有證據(jù)表明,這些模型可以被逆向工程破解。
AI系統(tǒng)極易受到攻擊,其中包括“提示注入”和“越獄”等方式。在提示注入攻擊中,黑客會(huì)在用戶輸入或外部數(shù)據(jù)中隱藏惡意指令,誘使AI執(zhí)行其原本不該做的事情,例如泄露私人數(shù)據(jù)或運(yùn)行有害命令?!霸姜z”則是通過(guò)操縱AI的回答,讓它忽視自身的安全規(guī)則,生成受限或危險(xiǎn)的內(nèi)容。ChatGPT發(fā)布之初,一些用戶就利用“越獄”技巧繞過(guò)了系統(tǒng)內(nèi)置的安全限制,創(chuàng)建了一個(gè)名為“DAN”的ChatGPT替身,這個(gè)替身能回答如何實(shí)施違法行為,甚至列出阿道夫·希特勒的“積極特質(zhì)”等問(wèn)題。
施密特指出,目前尚未建立一個(gè)有效的“防擴(kuò)散機(jī)制”來(lái)遏制AI帶來(lái)的風(fēng)險(xiǎn)。盡管發(fā)出了嚴(yán)肅的警告,但他對(duì)AI整體仍持樂(lè)觀態(tài)度,并表示這項(xiàng)技術(shù)“遠(yuǎn)沒(méi)有得到應(yīng)有的關(guān)注和熱度”。他認(rèn)為一種“外來(lái)智能”的到來(lái),雖然不像人類,卻在某種程度上處于人類控制之下,這對(duì)人類來(lái)說(shuō)意義重大。因?yàn)槿祟惲?xí)慣于處在智慧鏈的頂端,而從目前的情況看,這些系統(tǒng)的能力水平未來(lái)將遠(yuǎn)遠(yuǎn)超越人類。
以ChatGPT為例,僅兩個(gè)月就擁有了一億用戶,這種增長(zhǎng)速度令人震驚,也體現(xiàn)了AI技術(shù)的巨大力量。施密特認(rèn)為AI被低估了,而不是被炒作過(guò)度。他期待在未來(lái)五到十年內(nèi),這一判斷被證明是正確的。施密特的這番言論正值外界關(guān)于“AI泡沫”的討論升溫之際。投資者正大量投入資金到AI公司中,而估值也被認(rèn)為過(guò)高,不少人將其與2000年代初互聯(lián)網(wǎng)泡沫破裂相提并論。不過(guò),施密特并不同意這種看法。他表示,這些投入真金白銀的人們堅(jiān)信,從長(zhǎng)期來(lái)看,AI的經(jīng)濟(jì)回報(bào)將是巨大的,否則他們不會(huì)冒這個(gè)風(fēng)險(xiǎn)。
施密特關(guān)于AI擴(kuò)散風(fēng)險(xiǎn)的警告為AI產(chǎn)業(yè)發(fā)展敲響警鐘。AI的“越獄”與“提示注入”等漏洞,使其可能被惡意濫用,甚至危及人類安全。另一方面,作為技術(shù)樂(lè)觀主義者,施密特的核心觀點(diǎn)在于AI的巨大潛力仍被“低估”。他堅(jiān)信AI將帶來(lái)顛覆性的經(jīng)濟(jì)與社會(huì)回報(bào)。這番論述表明,我們正處在一個(gè)歷史性的十字路口,需要構(gòu)建牢不可破的“防擴(kuò)散機(jī)制”,在駕馭其驚人力量的同時(shí),確保它行駛在安全、可控的軌道上。