百度在武漢隆重舉行的Create2025 AI開發(fā)者大會(huì)上,其創(chuàng)始人李彥宏圍繞“模型世界與應(yīng)用領(lǐng)域的交融”發(fā)表了約一小時(shí)的演講,正式揭曉了文心大模型的最新版本——4.5Turbo與X1Turbo。同時(shí),他還分享了DeepSeek模型在百度生態(tài)系統(tǒng)內(nèi)的應(yīng)用進(jìn)展及其面臨的挑戰(zhàn)。
李彥宏透露,百度的核心應(yīng)用如文小言、搜索及地圖等,已經(jīng)接入了DeepSeek的完全版模型,這些應(yīng)用在智能客服、搜索功能強(qiáng)化等方面均實(shí)現(xiàn)了效率上的顯著提升。然而,他也坦誠地指出了DeepSeek的局限性:“目前,該模型僅限于文本處理,尚不支持圖像、音頻及視頻等多模態(tài)內(nèi)容的生成,而百度智能云的六成以上企業(yè)客戶明確表達(dá)了對(duì)多模態(tài)能力的需求?!彼噪娚讨辈槔f明了DeepSeek因較高的錯(cuò)誤生成率(即幻覺率高),在金融、醫(yī)療等高風(fēng)險(xiǎn)領(lǐng)域難以直接應(yīng)用,“如果在直播中錯(cuò)誤推送‘買一送十’的優(yōu)惠信息,商家將面臨巨大的經(jīng)濟(jì)損失”。其響應(yīng)速度較慢以及調(diào)用成本偏高的問題,也限制了其規(guī)?;瘧?yīng)用——當(dāng)前市場(chǎng)上大多數(shù)大模型的API調(diào)用成本均低于DeepSeek完全版,且響應(yīng)速度更快。
針對(duì)上述問題,百度此次發(fā)布的文心大模型雙版本提出了三大核心升級(jí):多模態(tài)、強(qiáng)化推理能力以及低成本。李彥宏著重指出,多模態(tài)已成為下一代AI模型的必備要素,“純文本模型的市場(chǎng)份額將迅速減少,企業(yè)需要能夠同時(shí)處理圖文、音視頻等內(nèi)容的通用型模型”。在性能方面,文心4.5Turbo每百萬token的輸入價(jià)格降至0.8元,輸出價(jià)格為3.2元,與前代相比,推理速度提升了2倍,成本降低了80%;而X1Turbo版本的輸入價(jià)格為1元,輸出價(jià)格為4元,在性能提升的同時(shí),價(jià)格再降50%,并支持中英雙語以及法律、醫(yī)療等領(lǐng)域的推理優(yōu)化。
李彥宏直言不諱地指出,成本是AI應(yīng)用廣泛普及的主要障礙,“目前,開發(fā)者在構(gòu)建AI應(yīng)用時(shí)面臨的最大難題是算力成本過高,而技術(shù)創(chuàng)新的本質(zhì)通常源于成本結(jié)構(gòu)的突破”。他以自動(dòng)駕駛為例,說明2015年激光雷達(dá)的單價(jià)超過10萬美元,如今已降至千元級(jí)別,直接推動(dòng)了L4級(jí)技術(shù)的普及。文心大模型的此次降價(jià),旨在降低企業(yè)部署的門檻,“我們希望讓中小企業(yè)能夠負(fù)擔(dān)得起大模型的使用成本,讓創(chuàng)業(yè)者敢于嘗試和犯錯(cuò),最終推動(dòng)各行各業(yè)AI原生應(yīng)用的誕生”。
據(jù)百度技術(shù)團(tuán)隊(duì)透露,文心4.5Turbo與X1Turbo已經(jīng)同時(shí)開放公有云及私有化部署,支持按需調(diào)用及定制化訓(xùn)練。市場(chǎng)分析認(rèn)為,百度通過技術(shù)迭代與成本重構(gòu),正試圖在模型能力與商業(yè)化應(yīng)用之間找到最佳的平衡點(diǎn),而多模態(tài)能力和價(jià)格優(yōu)勢(shì)將成為其吸引企業(yè)客戶的關(guān)鍵因素。






