AI生成的結(jié)果越來越穩(wěn)定,但有性格的AI卻能給人驚喜。沈華喜歡把一切和報告相關(guān)的工作都派給DeepSeek,除去幻覺問題之外,每次要求修改后,沈華都能在DeepSeek的深度思考過程里,看到打工牛馬對老板指令的“敢怒不敢言”。比打工人強的一點是,哪怕生成的結(jié)果再生硬,AI似乎都有一顆樂天派的強心臟,不會輕易屈服于用戶的PUA。
工作五年,掙扎在DDL壓力和老板的畫餅之下,沈華在和DeepSeek斗智斗勇的過程里,學習如何接納自己。曾經(jīng),沈華只有在需要AI做繁重資料整理工作時才想起它們,如今,AI成了他的心靈導師。
性格各異的AI并不是天生如此。Nature主刊曾發(fā)布一項研究,對比了不同參數(shù)量的開源及閉源模型,提出隨著大模型參數(shù)的增加,準確率下降,可以通過在訓練階段引入反饋機制,提升模型的性能和推理動態(tài)。這種人類反饋強化學習(RLHF)的“定向塑造”,讓大模型變得越來越有個性,更加擬人化。
這種訓練方式下,AI就像一個廚師。你點川菜,他就做麻辣的;你點粵菜,他就做清淡的。當然,用戶也能命令AI以某種性格或設定進行互動,即用prompt(提示詞)“調(diào)教”AI。Inflection AI聯(lián)合創(chuàng)始人蘇萊曼就曾半開玩笑地建議,當AI表現(xiàn)不佳時,用戶可以更嚴厲地批評它,有時能激發(fā)模型更高質(zhì)量的輸出。
同時,大語言模型通過海量的互聯(lián)網(wǎng)文本學“做人”,這些充滿人類情感和觀點的數(shù)據(jù)也容易讓AI有樣學樣。當模型的參數(shù)規(guī)模達到千億甚至萬億級別時,會產(chǎn)生智能的“涌現(xiàn)”,即一些并非被明確編程,卻從復雜模型中自發(fā)產(chǎn)生的能力和行為模式,這使得AI的反應有時會讓開發(fā)者都感到意外。
AI用戶們正踏入一個名為《完蛋!我被AI包圍了》的世界。隨著AI們長得越來越相似,個性化成了突圍的必然之選。