警惕AI幻覺帶來的虛假編造!近日,有關(guān)“帶著DeepSeek看病”的話題引起了廣泛關(guān)注和討論。有人分享了自己使用AI問診的經(jīng)歷,稱AI給出的答案與醫(yī)生建議一致,甚至在醫(yī)院檢查報告還未出結(jié)果時,AI就已經(jīng)完成了分析。
人工智能的興起正在改變醫(yī)療行業(yè)。各地多家醫(yī)院引入DeepSeek,并將其應(yīng)用于臨床、科研和行政管理等多個場景。然而,AI能否完全替代醫(yī)生仍需質(zhì)疑。湖南省醫(yī)保局日前印發(fā)通知,明確規(guī)定禁止接收由人工智能自動生成的處方。一些醫(yī)生也指出,AI診斷結(jié)果只能作為參考,在處理復(fù)雜病例和結(jié)合患者個體差異方面仍有局限性,最終診斷仍需依靠醫(yī)生的專業(yè)判斷。盡管AI在某些情況下看起來非常準(zhǔn)確,但仍然需要醫(yī)生更為專業(yè)的判斷,更適合輔助專業(yè)醫(yī)護人員進行診療。對于普通大眾而言,在使用AI問診時,警惕“AI幻覺”帶來的虛假編造尤為重要。
很多時候,當(dāng)我們向AI提問時,可能會得到一個詳細(xì)且邏輯嚴(yán)密的回答。然而,進一步核實后會發(fā)現(xiàn)這些信息存在虛構(gòu)和編造,這就是所謂的AI幻覺。由于大模型訓(xùn)練數(shù)據(jù)可能存在偏差或不全面,AI容易生成不準(zhǔn)確的結(jié)果。此外,AI基于概率生成內(nèi)容,缺乏對個案的真實感知和事實的深度理解,容易陷入“自說自話”的境地,甚至編造看似合理實則荒謬的信息。
不少網(wǎng)友已經(jīng)發(fā)現(xiàn)了AI幻覺現(xiàn)象。有人發(fā)帖表示,在用AI進行文獻分析時,答案中會出現(xiàn)查無此文的文獻;有人發(fā)現(xiàn),AI會把一本書的作者安到另一個人身上;還有人發(fā)現(xiàn),AI給出的答案存在上下文不符、邏輯不一致的現(xiàn)象。這提醒我們,AI生成的內(nèi)容并非完全可靠,要理性看待和使用,特別是在醫(yī)療等嚴(yán)肅領(lǐng)域,不可完全依賴AI,以免對自身健康造成危害。
警惕AI幻覺并不意味著要因噎廢食,而是要在技術(shù)層面加以改進,并在倫理和規(guī)范層面未雨綢繆。AI的發(fā)展需要在進步中不斷反思,在反思中持續(xù)前行。只有這樣,才能讓AI成為推動社會進步的有力工具,而不是隱患之源。
2025年2月,中國人民大學(xué)教授李婷公開辟謠了一組數(shù)據(jù)——“中國80后累計死亡率為5.20%”。在社交媒體上,許多“80后”因這組數(shù)據(jù)感到惋惜
2025-03-05 16:23:25小心AI在胡說八道