如今,從智能家居的語音助手到自動駕駛汽車,從高效能的數據分析到醫(yī)療領域的精準診斷,AI正以前所未有的方式改變著世界。然而,隨著AI技術的不斷發(fā)展和應用,其雙刃劍的特性也逐漸顯現(xiàn)。深度偽造技術就是其中之一,它利用人工智能算法生成高度逼真的虛假視頻或圖像,通過深度學習算法分析大量真實數據,學習特定人物或場景的特征,并生成與之極為相似的虛假內容。這種技術使得造假變得更加容易和難以辨別,給社會帶來了諸多安全隱患。
今年以來,AI深度偽造假冒名人的事件時有發(fā)生。不久前,有人利用AI技術深度偽造了張文宏醫(yī)生的臉部和聲音進行直播帶貨。在這段視頻中,被合成的人像反復介紹一種產品,聲音也很像張文宏本人,商品中的蛋白棒產品已經售賣了1200多件。目前該賬號已經搜索不到。張文宏醫(yī)生對有人利用AI模仿自己帶貨的行為非常氣憤,表示這種情況已經持續(xù)了幾個星期,尤其是對于不熟悉AI技術的年長市民,他們很容易相信這些虛假信息。
用AI制作假冒名人欺騙網民的現(xiàn)象并非個例。今年國慶期間,有人用企業(yè)家雷軍的聲音和頭像制作了眾多惡搞視頻。還有人利用劉德華的聲音為自己增加流量。該視頻出現(xiàn)后,劉德華電影公司連續(xù)發(fā)布兩則聲明,提醒各方人士注意,避免落入偽造劉德華聲音的AI語音合成技術騙局。上海市消保委也注意到最近日益增加的AI假冒名人的視頻,認為這種行為是對消費者合法權益的侵害,是一種赤裸裸的欺詐行為。
現(xiàn)在的AI技術在克隆他人面部和聲音上已經非常成熟,提供一張照片就能做出換臉的效果,他人的聲音也能被輕易模仿。專家介紹,通過人工智能技術可以將臉進行替換,聲音需要有一個語言模型,將被模仿者的聲音進行合成,實現(xiàn)音色的克隆。技術人員現(xiàn)場做了一個測試,將事先錄制好的視頻換成記者的臉和聲音。記者提供了一張證件照片,不到兩分鐘,通過軟件的渲染,視頻的人臉就換成了記者的臉。隨后是聲音的AI制作,記者現(xiàn)場錄制了一段聲音輸入到AI資料庫中,很快AI就能用記者的聲音播報任何文本內容。最終合成的視頻效果非常逼真。
近年來,AI深度偽造技術被頻繁用于假冒名人進行直播帶貨和其他活動。例如,有人利用這項技術偽造了張文宏醫(yī)生的臉部和聲音進行直播帶貨,售賣的蛋白棒產品已經售出1200多件
2024-12-23 13:42:45記者實測AI換臉搭配聲音合成“張文宏是不是帶貨了?”最近,有網友稱在網絡賣貨視頻中看到知名醫(yī)生張文宏在售賣一種蛋白棒產品。不過,經常刷短視頻的朋友很快就能分辨出這是AI合成的視頻,并非本人。
2024-12-14 15:08:21張文宏“被AI帶貨”