假照片不僅騙過了所有人的眼睛,還造成了市場(chǎng)恐慌。去年五月,一張五角大樓發(fā)生爆炸的照片迅速流傳。由于發(fā)布在美國(guó)股市開盤時(shí)間,許多投資相關(guān)的網(wǎng)站和社媒賬戶轉(zhuǎn)發(fā),導(dǎo)致標(biāo)準(zhǔn)普爾500指數(shù)下跌0.3%,黃金和美國(guó)國(guó)債價(jià)格小漲。最后轄區(qū)消防部門辟謠才平息事態(tài)。
太依賴“眼見為實(shí)”不僅會(huì)傷害感情還會(huì)傷害錢包,于是出現(xiàn)了反向操作:一律打成AI。這樣做的一個(gè)原因是躲開平臺(tái)推送。Meta明確表示要高舉AI大旗,扎克伯格認(rèn)為有必要專門加一個(gè)版塊給AI生成或輔助生成的內(nèi)容。Meta旗下有Facebook和Instagram兩個(gè)重要內(nèi)容平臺(tái),在前者上,AI生成內(nèi)容越來越多見,因?yàn)榧?lì)政策很誘人:每個(gè)超過1000贊的帖子最高可獲10美元曝光獎(jiǎng)勵(lì)。如果堅(jiān)定執(zhí)行“一律打成AI”的路線,有效打擊假消息傳播,倒逼平臺(tái)不再推流量、給補(bǔ)貼,也許是個(gè)可行的方法。沒有買賣就沒有傷害。
然而,這種真假難辨的情況可能會(huì)讓真正的傷害消失在互聯(lián)網(wǎng)的信息海洋中?;ヂ?lián)網(wǎng)觀察基金會(huì)IWF報(bào)告稱,過去六個(gè)月里,人工智能制作的非法內(nèi)容數(shù)量已超過前一年總量。這些非法內(nèi)容包括AI生成的兒童色情圖片、視頻;融合明星名人的Deepfake視頻;生成的兒童性虐待裸照等。很多AI生成的內(nèi)容過于逼真,工作人員難以確定假圖中是否有真人,是否真的有兒童遭到虐待需要介入。非營(yíng)利組織IWF只能收集證據(jù)并與平臺(tái)交涉要求刪除,真正有能力進(jìn)行深入調(diào)查的只有警方和其他執(zhí)法人員。當(dāng)海量生成照片需要處理且無法辨別時(shí),“一律打成AI”會(huì)導(dǎo)致真照片混雜其中,錯(cuò)過干預(yù)機(jī)會(huì)。
類似地,當(dāng)“狼來了”的游戲不斷擴(kuò)大,真正反映險(xiǎn)情的消息被安上“AI做的吧”標(biāo)簽,從而錯(cuò)過最佳施救時(shí)間也是一種惡果。從“眼前為實(shí)”到“眼見不再為實(shí)”的過程中,消失的是網(wǎng)上沖浪時(shí)的信任。出于自我保護(hù)和減少謠言散布,一律打成AI的確是一種有效策略。但一切都不值得相信的世界,會(huì)更好嗎?
Perplexity在2022年12月啟動(dòng),是早期投入使用的生成式搜索引擎之一,也被稱作回答引擎。
2024-06-05 13:50:44Perplexity更新!AI搜索的下一步