搶奪資金、人才、用戶AI“六小虎”進入“破局時刻”|特寫
《科創板日報》2月16日訊(記者 陳美)一石激起千層浪。當DeepSeek 以迅猛之勢攪亂 AI 江湖的原有格局之后,之前獨領風騷的AI “六小虎” 正面臨“破局”的關鍵時刻。
某央企技術負責人對《科創板日報》記者表示,“DeepSeek給業界指了“一條明路”:使用以GRPO為代表的強化學習,加上高質量Long CoT數據,理論上可令任意通用大模型顯著提升其推理能力;在部分細分領域,哪怕1.5參數量的模型,經訓練后也可打到媲美o1的效果,這使得大模型訓練與推理的算力資源成本大大降低。”
最新消息顯示,字節CEO梁汝波已反思Deepseek,稱跟進速度不夠,今年要追求智能上限。OpenAl首席執行官SamAltman也宣布GPT 4o升智,智力要達到o3 pro水平,并表示更新后的GPT 4o還是最好的AI搜索產品。
這意味著2025年大模型領域,將迎來一場全方位的競爭。然而,面對單次預訓練300萬美元的燒錢門檻、8位數年薪的人才爭奪戰、以及用戶留存與投流成本的剪刀差,以及DeepSeek的攪局、大廠的追擊,在資金儲備、人才密度與用戶增速的路上,AI“六小虎”亟需自行探明。
DeepSeek來了,Kimi首當其沖?在DeepSeek崛起之前,AI“六小虎”在大模型領域嶄露頭角,吸引了大量資本注入。
創投通數據顯示,2024年AI“六小虎”融資火爆。其中,月之暗面先后完成超13億美元融資,投后估值高達33億美元,約220億元;智譜同樣表現亮眼,2024年完成三輪融資,累計融資額保守估計超40億元,估值水平也躋身200億元水平。
但高昂的訓練成本,對于資金相對薄弱的AI “六小虎”而言,仍是巨大挑戰;另一方面,為搶占用戶心智的巨額投流,也讓C端營銷成本不斷攀升。
一位投資人告訴《科創板日報》記者,由于月之暗面的Kimi與DeepSeek均涉及國內to C領域大語言模型,且在技術路徑上,Kimi與DeepSeek完全不同。因此,在這波沖擊中,Kimi尤為受到關注。
《科創板日報》記者了解到,在技術路線上,智譜、百川智能、零一萬物、MiniMax、階躍星辰,與DeepSeek一樣,都采用了MoE(混合專家)模型,進行訓練。
在C端產品對壘中,DeepSeek-R1模型發布的同一天,1月20日Kimi也發布了Kimi k1.5,并強調超長邏輯鏈能力,將強化學習的上下文窗口擴展到128k。
一位不愿具名的投資人向《科創板日報》記者分析,“128k是指模型‘窗口’的大小,雖然含義是12.8萬個token,但考慮到輸出性能,比如背后調用多少算力,且每家模型的token計費邏輯不同。在DeepSeek開源情況下,對應Kimi的投流,Kimi k1.5的總體成本應該高于DeepSeek。”
“此外,DeepSeek的‘思考’部分很長,在用戶提出同樣問題時,DeepSeek的輸出長度可能是別人的好幾倍。這也可能使得Kimi即便投流,依然陷入獲客成本很高的境地。”
用戶活躍度上,Kimi的C端領域標桿產品,月活已受到沖擊。第三方榜單顯示,1月份,豆包以7861萬MAU位列大模型C端產品榜首;第二名則是DeepSeek,為3370萬MAU;Kimi則位列第三,MAU為1943萬。
或許正因如此,在原金沙江投資人、月之暗面聯合創始人張予彤也做出發聲。
近日,她在朋友中圈稱,很高興Kimi新版本上線后用戶量又創新高:一是長文本+推理,讓搜索問答更全面,及時、準確;二是多模態能力,文字+圖像輸入,讓Kimi能看懂現實世界的復雜問題。
“創新基礎模型架構”打響人才、資金之爭在各公司紛紛接入DeepSeek之時,對于大模型創業公司來說,逼迫“基礎模型架構創新”的時刻已到來。
多位投資人告訴《科創板日報》記者,大模型的核心依然是技術創新。“這需要加大研發投入,探索多模態融合、強化學習等新技術路徑,以提升模型性能和智能化水平。”
歸根結底,這是一場“人才”的競爭。某產業機構投資人士表示,人才的價值,一是在于能及時調整和優化模型,尋找新的架構方向。此次字節這么快推出全新模型架構,依賴的也是人才的壁壘,讓企業“跑得更快”;二是,面向應用端的有效落地,比如AI for Science、AI陪伴,AI視頻等,頂尖人才的匯聚,能夠在高價值領域快速構建價值產品,實現商業模式快速驗證與直接創收。
字節得以迅速推出的稀疏架構,很大程度上也得以于它在AI人才上的積累。2024年,張一鳴已親自下場挖人,包括原阿里通義千問大模型技術負責人周暢加入字節,年薪高達8位數。此外,零一萬物原聯合創始人和預訓練負責人黃文灝也選擇加入;智譜AI等公司中多名頂尖AI工程師和研究人員也被傳已跳槽至字節。
引領當前行業風潮的DeepSeek,更是以擅于挖掘人才著稱,并且仍在以百萬年薪“招兵買馬”**。而DeepSeek創始人梁文峰,本身也是浙大“學霸”,為“極致技術理想主義者”。
此外,傳統大廠龐大的研發團隊、海量數據資源,也讓“六小虎”感到壓力。“尤其是,大廠們不斷推出AI新產品和服務的能力,以及在基礎設施建設、產學研合作等方面優勢明顯,讓行業競爭加劇。”上述產業機構投資人士認為。
與此同時,資金實力也是不下“牌桌”的關鍵一環。
李開復曾公開透露,一次預訓練成本約三四百萬美元,即便是成本更低的Yi-Lightning,在訓練時也用了2000張GPU,耗時一個半月,花費三百多萬美元。這意味著在大模型預訓練上,燒錢是公認的事實。
在這方面,相較于“六小虎”而言,大廠、DeepSeek均實力雄厚。多位投資人表示,“由于有了成本比較,大模型創業公司的后續融資,或許與預期算力消耗有關”。
雙重夾擊下的“破局”時刻DeepSeek、大廠的雙重夾擊,讓AI “六小虎”不得不尋找“破局”之法。
零一萬物已做出選擇。在年初回應部分團隊并入阿里的消息的采訪中,李開復表示,去年5月發布Yi-Large模型時,團隊已經意識到,模型在速度和性價比上存在不足,并在當時就決定放棄了原計劃開發的超大杯模型Yi-X-Large。
隨著進入B端市場,李開復認為,零一萬物2025年的機會是挖掘 To B 大模型的PMF。
智譜CEO張鵬在回復《科創板日報》記者采訪時稱,“將All in AGI,其他的都是路徑。而在路徑上,智譜AI每天都在優化。”
MiniMax方面,1月15日,其已發布并開源新一代01系列模型,相比Kimi k1.5的12.8萬個token,01系列模型支持最多400萬個token的上下文輸入;百川智能則專注于大模型在醫療領域的應用落地,近期其與國家兒童醫學中心北京兒童醫院簽署戰略合作協議,雙方計劃共同推出“一大四小”共5款AI醫療產品。
某央企技術負責人在接受《科創板日報》記者采訪時表示,“DeepSeek的模型架構和訓練模式,證明了大模型在推理過程中,可生成大量高質量訓練數據,這再次印證了行業對‘合成數據’的價值共識,即構建的模型越被使用,高質量數據越多。”
“因此,誰擁有更多用戶,誰就將擁有更多高質量的數據,實現‘左腳踩右腳’式的模型迭代。”該央企技術負責人稱,也正是這種“自我強化”飛輪效應,使得DeepSeek實現了“正循環”,并以相對優勢持續突破技術天花板。
在融資上,另有投資機構人士對《科創板日報》記者表示,面對DeepSeek技術、開源的優勢,AI‘六小虎’亟需證明自己的產品,特別是“用戶數”和“留存用戶數”兩個關鍵指標。如果沒有規模增長用戶留存數,其產品、技術、模型能力可能受到質疑,為后續融資埋下隱患。
另一產業機構投資人告訴《科創板日報》記者,大模型的“特色價值”是關鍵:“估值的下限是企業實力與影響力。對大模型企業而言,一定要從最基礎、最本質的模型下手,提升模型效果,使得其在高價值場景的具有突出能力、牢固占據板塊,擁有穩定的市場基本盤(即用戶數),而這通常要求企業有強大的資金儲備或融資能力,且與成本優化、人才隊伍及企業愿景息息相關。”
“大模型公司估值的上限,則是企業服務的應用領域。大模型本身不是創收與壁壘的高地,只有聚焦高價值應用場景,比如醫藥領域AI For Science等,并在市場形成穩固的產品與業務壁壘,才是獲取資本信任與長期價值的關鍵。”
在這方面,智譜、百川智能已在采取進一步行動,除了在自身業務上聚焦外,這兩家公司還紛紛成立投資基金,以帶動產業鏈上下游,以推進應用場景的落地。
- 免責聲明
- 本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。