《科創(chuàng)板日報》12月30日訊?日前,深度求索DeepSeek-V3橫空出世,在AI行業(yè)內引發(fā)巨震,關鍵原因之一就是預訓練成本之低——這個參數量高達671B的大模型,在預訓練階段僅使用2048塊GPU訓練了2個月,且只花費557.6萬美元。與此同時,DeepSeek-V3相比其他前沿大模型,性能卻足以比肩乃至更優(yōu)。
在這背后,DeepSeek-V3采用了用于高效推理的多頭潛在注意力(MLA)和用于經濟訓練的DeepSeekMoE。研發(fā)團隊證明,多Token預測目標(Multi-Token Prediction,MTP)有利于提高模型性能,可以用于推理加速的推測解碼。后訓練方面,DeepSeek V3引入了一種創(chuàng)新方法,將推理能力從長思維鏈模型(DeepSeek R1)中,蒸餾到標準模型上。這在顯著提高推理性能的同時,保持了DeepSeek V3的輸出風格和長度控制。
有觀點認為,DeepSeek-V3極低的訓練成本或許預示著AI大模型對算力投入的需求將大幅下降,甚至有觀點將27日A股算力概念的下跌與之聯系在一起。但也有觀點認為,DeepSeek表現固然優(yōu)秀,但其統計口徑只計算了預訓練,數據的配比需要做大量的預實驗,合成數據的生成和清洗也需要消耗算力。此外,在訓練上做降本增效不代表算力需求會下降,只代表大廠可以用性價比更高的方式去做模型極限能力的探索。
“最重要的是,我們正式進入了分布式推理時代?!?談及DeepSeek-V3時,Lepton AI創(chuàng)始人兼CEO賈揚清針對推理方面指出,“一臺單GPU機器(80×8=640G)的顯存已經無法容納所有參數。雖然更新大顯存機器確實可以裝下模型,但不論如何,都需要分布式推理來保證性能和未來擴展?!?/p>
中信證券研報也指出,近日,DeepSeek-V3的正式發(fā)版引起AI業(yè)內廣泛高度關注,其在保證了模型能力的前提下,訓練效率和推理速度大幅提升。DeepSeek新一代模型的發(fā)布意味著AI大模型的應用將逐步走向普惠,助力AI應用廣泛落地;同時訓練效率大幅提升,亦將助力推理算力需求高增。
▌AI行業(yè)“下一件大事”?
“我們已經達到了數據峰值……AI預訓練時代無疑將終結?!?OpenAI聯合創(chuàng)始人兼前首席科學家Ilya Sutskever前不久曾如此斷言。
多位AI投資人、創(chuàng)始人和CEO們在接受采訪時都表示,AI的Scaling Law定律的收益正在逐步衰減。
包括a16z合伙人Anjney Midha、微軟CEO Satya Nadella在內,AI行業(yè)CEO、研究人員和投資人們,已經發(fā)出了新的判斷:我們正處于一個新的Scaling Law時代——“測試時間計算時代”,即“推理時代”。這項能力讓AI模型在回答問題之前,能有更多時間和算力來“思考”,“這特別有希望成為下一件大事”?。
▌AI應用崛起 呼喚推理算力
為什么推理如此關鍵?
除了“舊版Scaling Law”效應衰減之外,還有一個原因就在于AI應用——英偉達競爭對手、AI芯片制造商Cerebras曾如此解釋,?“快速推理是解鎖下一代AI應用的關鍵。從語音到視頻,有了快速推理之后,以前無法實現的響應式智能應用程序將成為可能?!?/p>
以近期風頭大盛的豆包為例,不久前豆包大家族全面更新,豆包大模型應用場景不斷拓展,民生證券指出,這使得對推理算力的需求不斷攀升,主要集中在硬件設備算力需求、數據中心規(guī)模擴張需求、通信網絡需求三方面。
具體而言,豆包大模型將帶來多少推理端的算力需求增量?分析師根據目前豆包的月活、日活以及日均token調用量為基礎,做出保守、中性、樂觀3種假設,預計豆包大模型或將帶來759、1139、1898億元的AI服務器資本開支需求。
隨著AI應用顯著帶動算力建設,分析師指出,字節(jié)算力資本開支持續(xù)攀升。
另外,上周還有報道指出,小米正在著手搭建自己的GPU萬卡集群,將對AI大模型大力投入。小米大模型團隊在成立時已有6500張GPU資源。
當然,字節(jié)跳動與小米不是個例,海外科技巨頭也正在大手筆加大資本開支。據摩根士丹利預估,海外四大科技巨頭在2025年的資本開支可能高達3000億美元,其中亞馬遜964億美元、微軟899億美元、Alphabet 626億美元、Meta 523億美元。
雖說目前暫時無法明確其中有多少資金將用于AI算力建設,但從這些巨頭此前的種種表態(tài)與近年的資本方向可以想到,AI占比不會太低。
Bloomberg Intelligence最近的一篇報告顯示,企業(yè)客戶可能會在2025年進行更大規(guī)模的AI投資,而AI支出增長將更側重于推理側,以實現投資變現或提升生產力。
隨著端側AI放量,豆包、ChatGPT等AI應用快速發(fā)展,多家券商研報指出,算力需求會加速從預訓練向推理側傾斜,推理有望接力訓練,成為下一階段算力需求的主要驅動力。
a16z合伙人Anjney Midha表示,如果推理計算成為擴展AI模型性能的下一個領域,那么對專門用于高速推理的AI芯片的需求可能會大幅增加。如果找到答案與訓練模型一樣需要大量計算,那么AI領域“賣鏟人”將再次獲勝。