眼下最受關注的AI新星、DeepSeek創(chuàng)始人梁文鋒正與張一鳴背道而馳。1月28日,DeepSeek發(fā)布了新一代多模態(tài)大模型Janus-Pro,分為70億和15億參數(shù)量兩個版本,并且均為開源。發(fā)布后不久,該模型便登上了知名AI開源社區(qū)Hugging Face的熱門榜前列。
相比去年11月發(fā)布的JanusFlow,Janus-Pro優(yōu)化了訓練策略、擴展了訓練數(shù)據(jù),模型更大,在多模態(tài)理解和文本到圖像的指令跟蹤功能方面取得重大進步,同時增強了文本到圖像生成的穩(wěn)定性。根據(jù)DeepSeek的測試結果,這款文生圖大模型在多項基準測試中表現(xiàn)出色,甚至強于OpenAI旗下的DALL-E 3以及Stable Diffusion。盡管用戶指出Janus-Pro并不全面超越DALL-E 3,但其以較小的參數(shù)量展現(xiàn)了不俗潛力。
本月早些時候,DeepSeek還發(fā)布了R1大模型。作為一款開源模型,R1在數(shù)學、代碼、自然語言推理等任務上的性能號稱可以比肩OpenAI當前最強的o1模型正式版。更重要的是,DeepSeek僅花費了相當于OpenAI零頭的資金和資源,就拿出了堪與o1比肩的產品。這表明“小力出奇跡”的策略在DeepSeek身上屢試不爽。
這種低成本高效率的做法對行業(yè)產生了沖擊。例如,1月27日美股交易中,英偉達股價暴跌17%,市值蒸發(fā)約4.3萬億人民幣。然而,長期來看,芯片依然是AI大模型發(fā)展的基石,英偉達作為這一領域技術壁壘最堅固的公司,其“賣鏟者”的長期價值依然堅挺。
字節(jié)跳動自2023年進軍AI大模型以來,投入大量資金和資源,快速擴充AI業(yè)務矩陣,發(fā)布十幾款大模型及十幾個AI應用。盡管如此,“小力出奇跡”的DeepSeek讓字節(jié)看似無可置疑的“大力”打法遭遇挑戰(zhàn)。DeepSeek不僅在AI技術和產品上打破了舊思維,也在不經(jīng)意間點破了“大力出奇跡”并非放諸四海皆準的商業(yè)真理。
Janus-Pro的成本相對較低,使用輕量級分布式訓練框架,1.5B參數(shù)模型大約需要128張英偉達A100芯片訓練7天,7B參數(shù)模型則需要256張A100芯片和14天訓練時間。這樣計算下來,模型訓練成本可低至數(shù)萬美元。性能方面,Janus-Pro通過將多模態(tài)理解和生成統(tǒng)一起來,提升了視覺編碼解耦的能力。在實際應用中,無論是文生圖還是圖生文,Janus-Pro都表現(xiàn)良好。
Janus-Pro繼承了DeepSeek的開源傳統(tǒng),使用MIT協(xié)議,個人和中小企業(yè)可以省去不少費用。此外,由于模型體量小,Janus-Pro可以在PC端安裝并本地運行,進一步降低了使用成本。
相比之下,國外秉持“大力出奇跡”的OpenAI近期遇到一些問題。例如,其文生視頻大模型Sora雖然震撼亮相,但隨后效果不盡如人意,被谷歌等競爭對手抓住機會嘲諷。盡管如此,OpenAI仍堅持堆芯片、堆算力的路線,計劃未來四年投資5000億美元用于AI基礎設施。
字節(jié)跳動的核心產品豆包大模型在知識、代碼、推理等多項公開測評基準上得分優(yōu)于GPT-4o和DeepSeek-V3,但其投入同樣驚人。據(jù)傳今年將投入超過120億美元用于AI基礎設施,不過字節(jié)對此回應稱相關消息并不準確。
DeepSeek通過“小力出奇跡”的方式展示了新的技術路線和商業(yè)哲學,打破了傳統(tǒng)的大廠主導邏輯。這表明中小廠商完全可以用更少的資源做出更好的產品,從而得到市場和投資者的認可。
在科技領域風起云涌的今天,一家名為DeepSeek的AI公司突然成為了全球關注的焦點
2025-02-11 14:32:25DeepSeek梁文鋒身家暴漲