用于制作深度造假內(nèi)容的技術(shù)也不難獲得。美國(guó)紐約州立大學(xué)布法羅分校計(jì)算機(jī)科學(xué)與工程系教授呂思偉(Siwei Lyu)對(duì)新京報(bào)記者解釋稱,“deepfake”一詞本身就是深度學(xué)習(xí)(deep learning)和虛假媒體(fake media)的混合詞,指的是使用依賴于深度神經(jīng)網(wǎng)絡(luò)模型的生成式人工智能模型創(chuàng)建的多媒體文本,其中包括文本、音頻、圖像與視頻。生成式人工智能系統(tǒng)可以在大量無(wú)標(biāo)記數(shù)據(jù)上進(jìn)行訓(xùn)練,這些模型已足以生成令人信服的內(nèi)容。因此,技術(shù)門檻被極大降低。
“有了人工智能技術(shù),可以輕松、快速且廉價(jià)地生產(chǎn)深度偽造的視聽(tīng)材料,它本可以用于更有益的方面,例如電影、零售行業(yè)等?!焙商m蒂爾堡大學(xué)法律、技術(shù)與社會(huì)研究所副教授巴特·范德·斯魯特(Bart van der Sloot)說(shuō),不幸的是,深度偽造技術(shù)最常見(jiàn)的應(yīng)用是色情內(nèi)容,“尤其當(dāng)年輕女孩成為受害者,這可能導(dǎo)致災(zāi)難性的結(jié)果?!?/p>
2019年一份調(diào)查深度偽造用途的報(bào)告發(fā)現(xiàn),96%的線上深度偽造內(nèi)容與色情有關(guān),這一數(shù)字仍有增加的趨勢(shì)。
以目前來(lái)看,打擊深度偽造也存在不少障礙。斯魯特發(fā)現(xiàn),生成深度偽造色情內(nèi)容時(shí),受害者本人往往并不知情,而且內(nèi)容也只有通過(guò)網(wǎng)絡(luò)得到傳播后,才會(huì)被外界發(fā)現(xiàn)并采取行動(dòng)。網(wǎng)絡(luò)上有如此多的深度偽造色情內(nèi)容,執(zhí)法部門也很難評(píng)估這些內(nèi)容是否得到了當(dāng)事人的同意,其中究竟是真人還是人工智能生成的人。即便找到犯罪者,確認(rèn)受害者并刪除材料,這時(shí)傷害往往已經(jīng)造成,一切都太晚了。
李娟枝認(rèn)為,事后追蹤只是“亡羊補(bǔ)牢”,應(yīng)該從源頭加強(qiáng)平臺(tái)層面監(jiān)管,“如果犯罪分子隱藏在一個(gè)匿名平臺(tái)之中,那么這個(gè)平臺(tái)就將成為犯罪的溫床。”
針對(duì)具體措施,呂思偉認(rèn)為,短期而言,應(yīng)出臺(tái)系列政策和法規(guī),禁止或限制旨在產(chǎn)生有害影響的深度偽造內(nèi)容。長(zhǎng)期解決方案還是應(yīng)回歸技術(shù)本身,需要進(jìn)一步開(kāi)發(fā)用于自動(dòng)檢測(cè)、刪除或跟蹤深度偽造內(nèi)容的技術(shù)。