DeepSeek正在產生連鎖反應,開放成為了大勢所趨,行業頭部都在主動選擇開放。
2月6日,OpenAI宣布ChatGPT Search向所有人開放,無需注冊,來到OpenAI官網首頁就可以直接使用搜索功能。
就在OpenAI公布ChatGPT Search全面開放的前幾個小時,谷歌也剛剛宣布向所有人開放最新Gemini 2.0模型,包括Flash、Pro Experimental和Flash-Lite三個版本。
而在國內,屬百度反應最為迅速,立即跟上了開源和免費的步伐。
2月13日,文心一言在官網宣布將于4月1日起全面免費,所有PC端和App端用戶均可體驗文心系列最新模型,以及超長文檔處理、專業檢索增強、高級AI繪畫、多語種對話等功能。
2月14日,百度宣布將在未來幾個月中陸續推出文心大模型4.5系列,并于6月30日起正式開源。
另一方面,主動接入DeepSeek成為了新的“時髦”。國內大小規模企業紛紛宣布部署DeepSeek模型,大廠則以開放的心態,將新的推理功能融入到業務生態中。
2月16日晚,百度搜索和文心智能體平臺宣布將全面接入DeepSeek和文心大模型最新的深度搜索功能。搜索用戶可免費使用DeepSeek和文心大模型深度搜索功能,文心智能體平臺的開發者也將能隨時調用DeepSeek模型創建并調優智能體。
DeepSeek-R1在行業中產生了一種正向的反饋,大廠與大廠之間,開源與閉源之間逐漸開始打破壁壘,促進技術的流動和落地。各玩家不在抱有對峙的態度,而是把重點轉向了如何利用行業先進模型能力來賦能業務場景,促進應用產品升級,從而讓更多用戶享受到技術的普惠成果。
打出開放組合拳:從大模型到搜索
作為長期在閉源大模型上深耕,從未放棄過大模型預訓練的玩家,百度在開放上反應最為迅速。梳理其近期的動作,從大模型到搜索,百度打出了一套開放“組合拳”。
在開放的大趨勢影響下,百度自研大模型加入了開源、免費的行列。百度宣布將在未來幾個月中陸續推出文心大模型4.5系列,并6月30起正式開源。
對于DeepSeek,百度也表現出了積極擁抱態度。
先是在春節DeepSeek爆火期間,百度智能云宣布在千帆ModelBuilder平臺上架DeepSeek-R1及DeepSeek-V3兩款模型,以低于DeepSeek-V3官方刊例價3折和DeepSeek-R1官方刊例價5折的價格,讓企業用戶優先、實惠地率先體驗到了“滿血版”的最新模型。
正是因為開放,才帶來了正向的拉動效應。數據顯示,模型上線首日,已有超1.5萬家客戶通過千帆平臺進行模型調用。
更深度的開放體現在,百度敢于將自身核心業務和重點業務與DeepSeek做探索融合。DeepSeek的推理功能驚艷,但本質上還是底座模型,缺乏使用功能的場景。而百度的搜索和智能體就是最佳的“練兵場”。
有人誤以為,有了DeepSeek-R1就能打敗所有的大模型。但實際上,DeepSeek-R1也有自身的局限性,快速接入推理功能的意義在于,跳過重復“造輪子”,減少無謂的浪費,優先讓模型在場景中跑起來,也讓更多用戶成為模型測試員。
從目前來看,DeepSeek的誕生,并沒有讓閉源大模型躺平,反而刺激了行業對自身的反思,從而加速模型升級和新產品推出。
卷模型性能、性價比正在成為行業主要趨勢。OpenAI首席執行官Sam Altman發布消息稱,GPT-4.5、GPT-5即將陸續發布,免費版ChatGPT將在標準智能設置下無限制使用GPT-5進行對話。
文心大模型自身的深度搜索功能已經上線,在其推理功能基礎上,還同時具備更強大的思考規劃和工具調用能力,可為用戶提供專家級內容回復,并處理多場景任務,實現多模態輸入與輸出。
全民加速進入AI搜索時代
當DeepSeek爆火后,還是有很多人持觀望狀態,原因在于不知道推理模型能具體在哪些場景產生明顯的提效。目前逐漸清晰的是,“推理大模型+搜索”將帶來1+1大于2的效果。
DeepSeek-R1模型以“思維鏈”功能著稱,可清晰展示問題解決的邏輯過程,回答問題深度大大增強。但自從其上線以來,就存在幻覺問題。百度搜索的龐大搜索生態和RAG(檢索增強生成)技術,對DeepSeek-R1是一個有效的補充。
RAG的概念其實并不復雜。簡單來說,就是讓大模型在執行生成之前參考或引用某些數據,而這些數據通常并不在該大模型的訓練數據集內,屬于專有或私有數據。百度的RAG可通過引用外部知識有效減少生成內容出現事實性錯誤的問題。再加上百度實時和全面的搜索生態加持,整個推理的過程就做到了,拿著參考案例和解題思路作答的效果。
在原有基礎上,此次百度搜索還接入了文心一言的深度搜索新功能,搜索的深度廣度和工具調用上了強化“推理”。具體體現在,推理的背后都藏著一個“專家”為用戶提供復雜問題和查詢的解答。該“專家”起初就會對“搜”這個動作去分類,搜專業問題、熱點還是寫代碼,而后會根據搜索目的確定搜索路徑和分析呈現方式。通過真實模擬人的思考步驟和過程,來實現解決問題的目標。
此外,文心一言深度搜索功能還提供了多項工具調用,包含了高級聯網、文檔問答、圖片理解、iRAG等功能,以此彌補了DeepSeek-R1單模態的缺陷。
例如,當用戶上傳了兩張圖片,采用“文心大模型4.0工具版”識別圖片信息并且比較分析時。它會自動選擇調用圖片理解、高級聯網、代碼解釋器等工具,模擬人的思考過程,先分析意圖,還原分析路徑的過程中調取合適的工具,最后以圖表的方式直觀呈現異同。
如果想根據原有的照片風格生成類似的圖片,就可以調用百度獨有的iRAG(image based RAG),檢索增強的文生圖技術。將百度搜索的億級圖片資源跟強大的基礎模型能力相結合,就可以生成各種超真實的圖片,整體效果遠遠超過文生圖原生系統,去掉了AI味兒,而且創作成本接近于0。
去年,各個玩家都在角逐AI應用第一的寶座,僅憑投流推廣,還是無法達到一款超級應用的水平。現在,接入DeepSeek推理模型,全新的模型能力和原有的場景、用戶相結合。一夜之間,就冒出了多個超大用戶量級別的AI應用產品。
百度App月活7.04億,推理和搜索能力升級后,讓廣泛的用戶瞬間進入了AI搜索新時代。
此外,百家號有1100萬內容創作者,百度文心智能體平臺開發者突破80萬。
生態的優勢將逐漸顯。一方面,百度搜索的開放性使其能整合全網信息,結合DeepSeek的推理能力與文心大模型的多模態處理能力,覆蓋更廣泛的用戶需求場景;另一發面,通過智能體平臺吸引開發者共創工具,形成“技術+開發者+場景”多輪驅動的良性生態。
百度搜索已經集齊技術、生態、場景的王牌,接下來將引領搜索的新變革。
真開放的底氣與勇氣
OpenAI的首席執行官Sam Altman認為,正是因為技術曲線發展到了一個新的節點,所以各方競爭之下大模型效率正在加速提升。
百度大模型和搜索能夠迅速調轉方向,加入到世界的潮流中,正是源于技術與變革的底氣。大模型和相關產品的降價只是表現,歸根到底源于背后訓練成本和推理成本的降低。
近期,百度智能云成功點亮昆侖芯三代萬卡集群,這也是國內首個正式點亮的自研萬卡集群。據悉,百度智能云將進一步點亮三萬卡集群。
大規模集群的優勢在于,可以通過任務并行調度、彈性算力管理等方式,提高計算資源利用率,避免算力閑置,提高單任務的計算效率,降低整體算力成本。其昆侖芯在性能上表現卓越,能夠在更少的計算資源下運行大規模模型(如DeepSeek-V3/R1)。
百舸平臺實現大規模集群的高效部署管理。為了解決大模型訓練時高通信帶寬的需求,百度建設了超大規模HPN高性能網絡,通過優化的擁塞控制算法、集合通信算法策略,提升了通信效率,將帶寬有效性提升到90%以上。
同時,萬卡集群的能耗極高,常規的散熱方案能耗可達十兆瓦或更高,這將提升企業進行模型訓練的電力成本。為此,百舸采用了創新性散熱方案,可以降低能耗,進一步降低模型訓練成本。
為了提升GPU的有效利用率,百舸優化并完善模型的分布式訓練策略,通過高效并行化任務切分策略,將訓練主流開源模型的集群MFU提升至58%。
為了保證大規模集群執行訓練任務的穩定性,百度自研的BCCL(百度集合通信庫),能夠快速定位故障同時提供自動化的容錯能力,重新調度任務到健康節點,繼續完成訓練。目前已經將故障恢復時間從小時級降低到分鐘級,保障集群有效訓練率達到98%。
除了訓練成本,現階段,訓練成本下降才是更主要的因素。有分析人士認為,此次文心一言全面功能開放,背后最大的原因之一就是推理成本不斷降低。
根據其分析,百度在模型推理部署方面有比較大的優勢,尤其是在飛槳深度學習框架的支持下,其中并行推理、量化推理等都是飛槳在大模型推理上的自研技術。飛槳和文心的聯合優化可以實現推理性能提升,推理成本降低。
從技術發展曲線來看,大模型推理和AI成本一直在下降。
以GPT為例,2023年GPT-4的token成本為36美元/百萬token,到了2024年中期GPT-4o成本下降為了4美元/百萬token,在此期間每個token價格下降了約150倍,摩爾定律以每18個月性能翻倍的速度改變了世界。
“過去,我們談論摩爾定律時,每18個月,性能水平或價格都會減半。但是今天,當我們談論大語言模型時,增加的成本基本上降低了,可以在12個月內降低90%以上”,百度CEO李彥宏在阿聯酋迪拜出席“世界政府峰會”說道。
開源、普惠、人人都用得上AI,也許已經在路上了。