柳江還提出加快可信數(shù)據(jù)空間應(yīng)用落地的建議。他認(rèn)為,數(shù)據(jù)要素已成為企業(yè)生產(chǎn)、科技創(chuàng)新的重要組成部分,但產(chǎn)業(yè)鏈中的數(shù)據(jù)孤島現(xiàn)象突出,缺乏有效的數(shù)據(jù)價值評估體系,限制了數(shù)據(jù)價值的釋放。他呼吁在更高層面推動可信數(shù)據(jù)空間建設(shè)與應(yīng)用,促進數(shù)字經(jīng)濟賦能實體經(jīng)濟。
隨著國產(chǎn)DeepSeek大模型的發(fā)布,“全民AI”現(xiàn)象逐漸顯現(xiàn),但也有人注意到生成式AI可能產(chǎn)生“一本正經(jīng)胡說八道”的問題。這種現(xiàn)象被稱為“AI幻覺”,即大語言模型編造看似合理但實際上錯誤的信息。甚至有人通過“喂假料”來誤導(dǎo)大模型,制造虛假信息。
全國政協(xié)委員、360集團創(chuàng)始人周鴻祎關(guān)注大模型的安全和幻覺問題。他認(rèn)為,雖然大模型存在“幻覺”,但這也是其創(chuàng)造力和想象力的體現(xiàn)。在科研領(lǐng)域,大模型的“幻覺”有助于指引新研究方向。而在醫(yī)療、法律、金融等領(lǐng)域,可以通過技術(shù)手段如RAG(檢索增強生成)技術(shù)進行矯正。他建議對大模型實施柔性監(jiān)管,給予企業(yè)自我糾正的機會,促進創(chuàng)新和競爭。
針對當(dāng)前包括“AI幻覺”在內(nèi)的AI亂象問題,構(gòu)建全面且行之有效的治理體系顯得尤為重要。在法律層面,應(yīng)制定明確條款,約束惡意利用AI的行為;在監(jiān)管層面,借助先進技術(shù)手段進行實時監(jiān)控,特別是在高風(fēng)險領(lǐng)域加強監(jiān)管;在社會治理層面,通過教育培訓(xùn)提高公眾對AI的認(rèn)知水平。
全國人大代表、中國工程院院士、安徽理工大學(xué)校長袁亮強調(diào),應(yīng)加快制定和完善AI相關(guān)的法律體系,明確法律責(zé)任和權(quán)力邊界。同時,加強數(shù)據(jù)安全和隱私保護,采用先進的數(shù)據(jù)加密技術(shù),并建立嚴(yán)格的數(shù)據(jù)訪問和使用權(quán)限管理制度。他還提倡在AI技術(shù)推廣過程中加強對相關(guān)人員的倫理教育和規(guī)范培訓(xùn),增強他們的倫理意識和責(zé)任感。