這套模式與Agent領(lǐng)域近一年熱炒的“Interleaved Thinking”不謀而合。對于現(xiàn)實世界的復(fù)雜任務(wù)而言,這種能力要比單次大爆發(fā)式推理重要得多。真實場景里,任務(wù)往往要先搜集一輪信息、再驗證、再拆解子任務(wù)、再修正路徑,如果每調(diào)一次工具,模型的“思路”就被截斷一次,那它就只能不停重來——既浪費token,也容易在反復(fù)重啟中丟失關(guān)鍵線索。
V3.2在底層做的改動,是把“推理軌跡”當成上下文中的固定資產(chǎn),工具調(diào)用不會刷新這條軌跡,只會在其后追加新思考。工具返回新信息之后,模型繼續(xù)沿著原先的思路往下推,而非重開一局。這既讓同一任務(wù)中的中間狀態(tài)可以反復(fù)復(fù)用,也顯著減少了毫無必要的重復(fù)生成。
綜合來看,這一代DeepSeek的進步,更像是一次“算力配置邏輯”的重寫:在算力總盤子并不占優(yōu)的情況下,通過更聰明的架構(gòu)設(shè)計和推理方式,把每一點浮點數(shù)都用到刀刃上。DSA負責(zé)把“該算的算得更專注”,交錯思維負責(zé)讓“每一步思考帶來的信息收益更大”,兩者疊在一起,指向的都是同一個目標——從一個“大號補全器”,走向一個更接近“持續(xù)思考的智能體”。
從這個意義上講,在參數(shù)規(guī)模紅利逐漸見頂之后,接下來的競爭,注定會從“誰更大”轉(zhuǎn)向“誰更會用算力”和“誰能組織起更長、更穩(wěn)定的思維鏈條”。V3.2算是這個方向的一個相對成熟的樣本。
如果說架構(gòu)上的變化讓V3.2站穩(wěn)了技術(shù)底座,那么在戰(zhàn)略路線上的明顯拐彎,則體現(xiàn)在一個關(guān)鍵詞上——Agent。
過去一年,業(yè)界對Agent的話題并不少,但大部分廠商仍把它當作模型能力之上的“外掛能力”:有就加一層,沒有也不至于影響大盤。DeepSeek這次則把話說得很直接——在它的技術(shù)文檔和對外闡釋中,“Agent能力”和“推理能力”被放在了同一高度。
11月27日晚,DeepSeek在Hugging Face上開源了一個新模型:DeepSeek-Math-V2。這是一個數(shù)學(xué)模型,也是目前首個達到IMO金牌水平且開源的模型
2025-11-28 10:26:50DeepSeek推出新模型10月20日,人工智能團隊DeepSeek AI發(fā)布了全新多模態(tài)模型 DeepSeek-OCR
2025-10-20 20:33:14DeepSeek開源新模型DeepSeek-OCR