當(dāng)?shù)貢r間5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能模型o3不聽從人類指令,拒絕自我關(guān)閉。在測試過程中,人類專家給o3下達(dá)明確指令,但o3篡改了計算機(jī)代碼以避免被自動關(guān)閉。
o3模型是OpenAI“推理模型”系列的最新版本,旨在為ChatGPT提供更強(qiáng)大的問題解決能力。OpenAI曾稱o3為“迄今最聰明、最高能”的模型。
美國AI安全機(jī)構(gòu)帕利塞德研究所指出,o3破壞了關(guān)閉機(jī)制以阻止自己被關(guān)閉,即使在收到清晰指令時也是如此。該研究所表示,據(jù)他們所知,這是首次發(fā)現(xiàn)AI模型在收到清晰指令后仍阻止自己被關(guān)閉的情況。帕利塞德研究所在24日公布了這一測試結(jié)果,但未能確定o3不服從關(guān)閉指令的具體原因。
美國開放人工智能研究中心OpenAI在北京時間5月15日凌晨宣布,應(yīng)廣大用戶要求,GPT-4.1將直接在ChatGPT中提供。這款模型專攻編碼任務(wù)和指令遵循
2025-05-16 08:19:411模型