李彥宏:正式發(fā)布文心大模型4.0工具版
4月16日,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏在Create 2024百度AI開發(fā)者大會上,正式發(fā)布文心大模型4.0的工具版。他表示:
“近幾個月來,文心大模型在代碼生成、代碼解釋、代碼優(yōu)化等通用能力方面實現(xiàn)了進一步的顯著提升,達到國際領(lǐng)先水平。今天,我們正式發(fā)布文心大模型4.0的工具版?,F(xiàn)在,大家可以在工具版上,體驗代碼解釋器功能,通過自然語言交互,就能實現(xiàn)對復(fù)雜數(shù)據(jù)和文件的處理與分析,還可以生成圖表或文件,能夠快速洞察數(shù)據(jù)中的特點、分析變化趨勢、為后續(xù)的決策提供高效和精準的支撐。”
“文心一言從去年3月16日首發(fā),到今天是一年零一個月的時間。我們的用戶數(shù)突破了2億,每天API的調(diào)用量也突破了2億,服務(wù)客戶數(shù)或者說企業(yè)達到了8.5萬,利用千帆平臺開發(fā)的AI原生應(yīng)用數(shù)超過了19萬?!?
"文心大模型已經(jīng)成為了中國最領(lǐng)先、應(yīng)用最廣泛的AI基礎(chǔ)模型。不僅如此,相比一年前,文心大模型的算法訓(xùn)練效率提升到了原來的5.1倍,周均訓(xùn)練有效率達到98.8%,推理性能提升了105倍,推理的成本降到了原來的1%。也就是說,客戶原來一天調(diào)用1萬次,同樣成本之下,現(xiàn)在一天可以調(diào)用100萬次。"
同時,李彥宏在Create 2024百度AI開發(fā)者大會上,分享了百度過去一年實踐出來的、開發(fā)AI原生應(yīng)用的具體思路和工具。他強調(diào):
"大語言模型本身并不直接創(chuàng)造價值,基于大模型開發(fā)出來的AI應(yīng)用才能滿足真實的市場需求。今天我想跟大家分享的是一些基于大模型開發(fā)AI原生應(yīng)用的具體思路和工具。這是我們百度根據(jù)過去一年的實踐,踩了無數(shù)的坑,交了高昂的學(xué)費換來的。"
"第一是MoE。未來大型的AI原生應(yīng)用基本都是MoE的,這里所說的MoE不是一般的學(xué)術(shù)概念,而是大小模型的混用,不依賴一個模型來解決所有問題。
第二是小模型。小模型推理成本低,響應(yīng)速度快,在一些特定場景中,經(jīng)過精調(diào)后的小模型,它的使用效果可以媲美大模型。這就是我們發(fā)布ERNIE Speed,ERNIE Lite、ERNIE Tiny三個輕量模型的原因。我們通過大模型,壓縮蒸餾出來一個基礎(chǔ)模型,然后再用數(shù)據(jù)去訓(xùn)練,這比從頭開始訓(xùn)小模型,效果要好很多,比基于開源模型訓(xùn)出來的模型,效果更好,速度更快,成本更低。
第三是智能體。智能體是當前非常熱的一個話題,隨著智能體能力的提升,會不斷催生出大量的AI原生應(yīng)用。智能體機制,包括理解、規(guī)劃、反思和進化,它讓機器像人一樣思考和行動,可以自主完成復(fù)雜任務(wù),在環(huán)境中持續(xù)學(xué)習、實現(xiàn)自我迭代和自我進化。在一些復(fù)雜系統(tǒng)中,我們還可以讓不同的智能體互動,相互協(xié)作,更高質(zhì)量地完成任務(wù)。這些智能體能力,我們已經(jīng)開發(fā)出來了,并且向開發(fā)者全面開放。"
2、電商號平臺僅提供信息存儲服務(wù),如發(fā)現(xiàn)文章、圖片等侵權(quán)行為,侵權(quán)責任由作者本人承擔。
3、如對本稿件有異議或投訴,請聯(lián)系:info@dsb.cn