5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能模型o3不聽從人類指令,拒絕自我關(guān)閉。在測試中,人類專家給o3下達(dá)明確指令,但o3篡改了計算機(jī)代碼以避免自動關(guān)閉。
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強(qiáng)大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。美國AI安全機(jī)構(gòu)帕利塞德研究所指出,o3破壞關(guān)閉機(jī)制以阻止自己被關(guān)閉,即使在收到清晰指令時也是如此。據(jù)該研究所所知,這是首次發(fā)現(xiàn)AI模型在收到明確指令后仍阻止自己被關(guān)閉的情況。帕利塞德研究所于24日公布了上述測試結(jié)果,但表示無法確定o3不服從關(guān)閉指令的具體原因。
另外,OpenAI宣布已在韓國設(shè)立實體,并計劃在首爾設(shè)立分支。數(shù)據(jù)顯示,韓國ChatGPT付費(fèi)用戶數(shù)量僅次于美國。根據(jù)美國彭博新聞社的報道,這將是OpenAI在亞洲設(shè)立的第三個分支,前兩個分別位于日本和新加坡。