過去一年,AI深度合成音視頻侵權現(xiàn)象愈發(fā)嚴重。從惡搞企業(yè)家雷軍到利用AI制作張文宏醫(yī)生的音視頻進行帶貨,甚至有不法分子通過AI深度合成視頻實施詐騙。此前,曾有網(wǎng)友使用AI合成的劉德華聲音博取流量,劉德華電影公司緊急發(fā)布聲明提醒網(wǎng)民警惕此類騙局。記者調查發(fā)現(xiàn),在一些購物平臺上,只需花費幾十元就能定制AI深度合成名人音視頻。
實現(xiàn)AI深度合成音視頻并不難。記者在手機應用商城搜索換臉換聲工具時,發(fā)現(xiàn)了眾多相關軟件。雖然這些換臉工具設定了固定場景且逼真度不高,但專家表示,目前有許多開源軟件和工具可以實現(xiàn)高逼真的換聲換臉效果。盡管這類軟件具有一定的技術門檻,但在短視頻平臺上,許多主播正在教授網(wǎng)友如何使用這些工具。
未經授權制作并出售名人的音視頻屬于侵權行為。根據(jù)《中華人民共和國民法典》,自然人享有肖像、聲音等權益,任何組織或個人利用信息技術偽造都是侵權行為。2023年,國家網(wǎng)信辦、工信部、公安部聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,要求不得利用深度合成服務制作、復制、發(fā)布、傳播法律、行政法規(guī)禁止的信息。2024年,網(wǎng)信辦發(fā)布的《人工智能生成合成內容標識辦法(征求意見稿)》也提出,對AI生成合成內容要進行標識,以便公眾識別和區(qū)分,防止誤導性信息傳播。
在司法實踐中,國內已審結首例AI生成聲音人格權侵權案。原告作為配音演員,在未經授權的情況下,其聲音被AI生成后對外出售。法院最終認定被告的行為構成侵權。不僅是名人,普通人甚至動畫形象,如果未經本人或版權方同意,用AI合成制作其音視頻也屬侵權行為。
防范AI深度合成音視頻侵權需要從多個層面綜合施策。技術上,可以利用AI檢測AI生成的內容。法律層面,需進一步完善相關立法,明確侵權行為定義和責任,并加強執(zhí)法力度。平臺層面,應強化政策法規(guī)宣貫和執(zhí)行,保護已有數(shù)據(jù),建立健全內容審核和侵權舉報機制。法律專家提醒,不要存僥幸心理,法律沒有灰色地帶,切勿因小失大。
近年來,AI深度偽造技術被頻繁用于假冒名人進行直播帶貨和其他活動。例如,有人利用這項技術偽造了張文宏醫(yī)生的臉部和聲音進行直播帶貨,售賣的蛋白棒產品已經售出1200多件
2024-12-23 13:42:45記者實測AI換臉搭配聲音合成