百度沈抖:開源模型大概率不會成為主流,也不會形成完整閉環(huán)的商業(yè)模式
9月6日消息,2023百度云智大會上,百度智能云千帆大模型平臺宣布實現(xiàn)2.0全面升級,首次公布月活企業(yè)數(shù)已近萬家,覆蓋金融、制造、能源、政務(wù)、交通等行業(yè)的400多個業(yè)務(wù)場景。
8月31日起,包括“文心一言”在內(nèi)的多款大模型陸續(xù)通過備案,正式對公眾開放。沈抖說,在文心一言開放當(dāng)天,在百度智能云千帆大模型平臺上,日活企業(yè)數(shù)增長超過 40%?!笳呤前俣让嫦蚱髽I(yè)端推出的大模型開發(fā)與管理平臺。在“文心一言”放開后的第24個小時,沈抖進(jìn)到后臺看數(shù)據(jù),發(fā)現(xiàn)文心一言回答了用戶“3342 萬個”問題,這個數(shù)字超出了他的預(yù)期。
對此,極客公園與百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖進(jìn)行了一次對話。
(圖源百度智能云公眾號截圖)
在對話中,沈抖表示用戶對文心一言的期待超乎他的預(yù)期?!拔覀儽緛硪灿X得‘看熱鬧’的少了,所以預(yù)期沒有那么高。沒想到當(dāng)天有3342萬個回答量,這說明用戶對文心一言期待還是很高的。大家不是上來問一句、兩句就走了,而是經(jīng)過了多輪的對話。從這個角度上來說,用戶的熱情還在。”
沈抖透露,做千帆的目的,就是要降低大模型的部署門檻、推動大模型的廣泛應(yīng)用。
對于開源模型的看法,沈抖認(rèn)為機器、數(shù)據(jù)的成本都太高了?!拔矣X得它大概率不會成為主流,也不會形成完整閉環(huán)的商業(yè)模式?!?/p>
圖注:百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖
(圖源百度智能云公眾號)
以下為《極客公園》與沈抖的對話內(nèi)容:
問:看熱鬧到了真正干實事的時候。前兩天,百度在C端開放了文心一言,你怎么看這個用戶使用數(shù)據(jù)?在意料之中還是意料之外?后臺的運維能力是怎樣的?
沈抖:數(shù)據(jù)是我當(dāng)天晚上12點半發(fā)到群里,同事們第二天就發(fā)布了這個數(shù)據(jù)。數(shù)據(jù)是我從系統(tǒng)里截的,原封不動地呈現(xiàn)給了外界,絕對真實。
我們本來也覺得“看熱鬧”的少了,所以預(yù)期沒有那么高。沒想到當(dāng)天有3342萬個回答量,這說明用戶對文心一言期待還是很高的。大家不是上來問一句、兩句就走了,而是經(jīng)過了多輪的對話。從這個角度上來說,用戶的熱情還在。
文心一言從3月16號開始內(nèi)測已經(jīng)有五六個月時間,無論在效果提升、還是成本降低上,都給了我們比較充裕的準(zhǔn)備時間。比如文心大模型的推理速度已經(jīng)較當(dāng)初提升了30多倍,大幅降低了推理成本,也讓我們能夠承載得了這么大的用戶量。
問:所以這段時間百度大模型的技術(shù)進(jìn)步,也包含成本上的進(jìn)步?
沈抖:對,大模型本身就是資源密集型的技術(shù)范式。
我們開始沒有想到流量會這么大,機器(算力)資源本身很寶貴,我們覺得放太多機器在那兒也是浪費,就沒有額外放太多機器。當(dāng)天用戶規(guī)模上來以后,好在因為我們的推理性能提高了,所以還是給用戶提供了穩(wěn)定的服務(wù)。
我們手里也握著不錯的算力儲備,接下來也會繼續(xù)降低訓(xùn)練、推理的成本,滿足用戶需求沒有問題。當(dāng)時我們內(nèi)部群里討論,流量來了能不能抗住。我說,讓流量來得更猛烈些,都是幸福的煩惱。
問:文心一言在C端的放開,對百度的好處是什么?
沈抖:你可能擔(dān)心的是,向C端開放如果不能帶來商業(yè)價值,是不是可持續(xù)的問題。
事實上,只要真正給用戶創(chuàng)造了價值,商業(yè)化只是時間早晚的問題。技術(shù)發(fā)展史上,那些有價值但變現(xiàn)難的事例很少。文心一言確實給C端用戶帶來了真真實實的價值,昨天我看有一些評論講,沒有了文心一言,他的辦公效率就會下降。所以只要有價值,未來文心一言的商業(yè)化是順其自然的。
問:中國大模型的C端產(chǎn)品形態(tài),會跟Chat GPT保持一致嗎?也就是訂閱制收費嗎?
沈抖:現(xiàn)在講大模型的產(chǎn)品形態(tài)還太早了,它的定義也還沒有那么清楚。
當(dāng)年移動互聯(lián)網(wǎng)起來的時候,我們可以用幾個關(guān)鍵詞講清楚它的定義,比如SoLo Mo(Social、Local、Mobile,利用社交媒體、地理定位服務(wù)和移動終端設(shè)備提供更好的用戶體驗)。但現(xiàn)在大模型還無法用幾個明確的詞定義。它的能力更強大,但邊界也更寬泛,還遠(yuǎn)沒到收斂產(chǎn)品形態(tài)的時候。
Open AI是技術(shù)驅(qū)動的公司,用戶體驗其實不是它的強項。它今天設(shè)計出的產(chǎn)品形態(tài)還很早期,接下來產(chǎn)品的迭代速度會非??臁⑿螒B(tài)也會劇烈變化。
問:Chat GPT向C端用戶收訂閱費的商業(yè)模式,在中國是可行的嗎?
沈抖:我們可能會演變出新的變現(xiàn)方式,比如常見的廣告、電商加游戲三大變現(xiàn)方式。
如果你愿意一個月花兩千塊錢雇一個助理,那當(dāng)AI能做助理1/10的事情,比如幫你制定旅游行程、預(yù)定機票和酒店、甚至調(diào)動打車和外賣軟件等,你會不會愿意花兩百塊?只是變現(xiàn)方式不一定是會員費,可能是交易傭金或其他方式。
再比如,游戲里邊一堆NPC角色都是生成式AI驅(qū)動的、電商領(lǐng)域“數(shù)字人”直播也由生成式AI支撐,這都可能產(chǎn)生不同的變現(xiàn)方式。最終C端的產(chǎn)品形態(tài),決定了它的變現(xiàn)方式。
問:如果C端產(chǎn)品最終是生產(chǎn)力工具,有沒有可能不是個人掏錢、而是公司給個人掏錢?
沈抖:有可能。比如百度網(wǎng)盤也算是一個效率工具,很多公司會買網(wǎng)盤賬號給員工用。我們還接觸過企業(yè),給每個員工配一個Copilot賬號寫程序。這都是企業(yè)給個人買單的案例。
問:作為內(nèi)容公司,我們也特別想用大模型來生產(chǎn)文章。你們剛上線了ToB的大模型服務(wù)平臺“千帆”,推出“千帆”的背景是怎樣的?能怎么幫助零程序員的公司部署大模型?
沈抖:這是非常好的問題。事實上,這就是我們做千帆平臺的原因。
這次大模型在B端落地的特點是大公司先行,很多客戶都是金融機構(gòu)、能源機構(gòu)、教育機構(gòu)等。它們有一個明顯的特點是需要私有化部署,但這樣門檻很高,還要自己培養(yǎng)一堆技術(shù)人員迭代模型,可能會減慢大模型生效的時間。
反倒像很多中小公司,你們大概率不會排斥一個(平臺型)SaaS產(chǎn)品,也不會排斥公有云。千帆平臺就是這樣的產(chǎn)品。企業(yè)可以在上面直接調(diào)用API,也可以訓(xùn)練樣本做微調(diào),幾乎零代碼打造自己的模型。我們做千帆的目的,就是要降低大模型的部署門檻、推動大模型的廣泛應(yīng)用。
問:似乎你們和OpenAI的路徑有所不同。OpenAI是先推C端產(chǎn)品ChatGPT,再慢慢推B端產(chǎn)品,百度卻是C端和B端齊頭并進(jìn)。為什么會有這種差異?
沈抖:技術(shù)都有接受度的問題,得讓更多的用戶真正用它,找到它的價值所在。大家都在談大模型,但多少人真的用過大模型?B端企業(yè)客戶更能感受到大模型對它們整個生產(chǎn)范式的潛在影響,它們更需要用起來。
但如果它們既不用公有云的API,也不自己搭一套環(huán)境去體驗、嘗試,那就是純粹在那兒天馬行空地想象。所以我們需要做千帆,讓它們先把大模型用起來。其實關(guān)于大模型的全方位開放,C端等了很久,B端也等了很久。只是B端離商業(yè)化更近。
問:文心一言放開后,千帆平臺的B端需求被拉動了多少?
沈抖:在文心一言開放的當(dāng)天,在百度智能云千帆大模型平臺上,日活企業(yè)數(shù)增長超過40%,考慮到TOB的反應(yīng)速度通常滯后一些,實際的情況會更好一些。
放開不僅會拉動C端數(shù)據(jù)上漲,也一定會拉動B端的數(shù)據(jù)上漲。因為這會幫B端企業(yè)降低成本、加快迭代速度(注:用國內(nèi)模型成本更低、更方便)。
但從數(shù)據(jù)漲幅上,B端暫時還比不上C端。今天假設(shè)有人要在B端用“文心一言”,他與其上來就調(diào)用API,不如先去C端體驗一下。當(dāng)他認(rèn)為體驗好,才會來千帆上用它。讓B端用起來,需要一個培育的過程。
問:如果C端和B端齊頭并進(jìn),你們怎么設(shè)置優(yōu)先級?重點主要放在C端還是B端?
沈抖:當(dāng)資源出現(xiàn)沖突時,才需要設(shè)置優(yōu)先級。大模型的特點是,它在底下很厚的一層都是通用的,那在上面找應(yīng)用,無論To B還是To C,都是百度要齊頭并進(jìn)做的。沒有到資源沖突的地步。
在C端,百度正在積極研究大模型可落地的產(chǎn)品形態(tài)和商業(yè)模式。百度要基于大模型重構(gòu)自己的C端產(chǎn)品,比如從百度自己的產(chǎn)品數(shù)據(jù)來看,百度網(wǎng)盤、百度文庫等產(chǎn)品,基于大模型重構(gòu)后,用戶使用粘性和會員付費率都有很大提高;全新打造的文心一言APP和重構(gòu)后的百度搜索,也成為大模型應(yīng)用新入口。在B端,百度智能云通過打造出最好的大模型平臺,服務(wù)好To B市場。
問:其實最通用的基座是你們的云計算,無論服務(wù)內(nèi)部客戶、還是外面客戶,都是你們的成功。
沈抖:是的,你服務(wù)好了內(nèi)部客戶、就服務(wù)好了外部客戶,服務(wù)好了外部客戶、就服務(wù)好了內(nèi)部客戶,這是MaaS的美妙之處。否則的話,假設(shè)外部和內(nèi)部完全是兩套技術(shù)棧,成本就太高了。
我們是兩條腿走路。百度當(dāng)然希望能做出一鳴驚人的ToC產(chǎn)品,但我們也非常愿意通過底層大模型和算力,支撐更多的企業(yè)和開發(fā)者做出好的ToC應(yīng)用。其實無論上面誰成功,都是底層大模型的成功。
問:除了文心一言外,千帆平臺還上線了其他模型。千帆跟Hugging Face這樣的模型聚合平臺有什么區(qū)別?
沈抖:在目前或相當(dāng)長一段時間內(nèi),不管是出于模型的場景適配性、還是客戶的心理需求,企業(yè)都希望能嘗試不同的模型。從這個角度來講,我們也需要提供第三方模型。
但也不是每一個模型都值得去試,那會是很大的資源浪費。所以千帆有自己的篩選原則,我們放上來的都是相對比較優(yōu)秀、易用的模型。
問:所以Hugging Face的定位是社區(qū),千帆的定位是平臺?
沈抖:沒錯。千帆不只是解決你來選模型的問題,更解決你把模型真正用起來的問題。用起來又包括數(shù)據(jù)、訓(xùn)練、調(diào)優(yōu)、Prompt工程,以及應(yīng)用搭建等一系列問題,還要充分考慮到成本和效率。千帆提供的是一站式服務(wù),這是千帆跟Hugging Face的區(qū)別。
Hugging Face模型廣度足夠,而千帆依托云廠商天然的優(yōu)勢,有足夠大的運營空間,也可以做到端到端的訓(xùn)練和推理性能優(yōu)化。例如,訓(xùn)練過程中的加速,故障的快速感知、定位、恢復(fù);推理過程中基于百度龐大的異構(gòu)計算集群的擴展性,有非常好的資源彈性,也可以提供serverless的服務(wù),使得客戶獲得低基礎(chǔ)設(shè)施成本、無需運維、高擴展性的收益。這是千帆要比Hugging Face做得更深的地方。
問:你似乎不看好開源模型,但開源攤薄了企業(yè)部署大模型的成本,也不能說它沒有意義。你到底怎么看開源模型?
沈抖:你說LLaMA(注:Facebook的開源大模型)的成本誰攤?是Facebook。那Facebook的成本誰攤?如果想不清楚這個問題的終點,那它(開源)就是無源之水、無本之木,終歸有一天會出問題。
因為這跟傳統(tǒng)的開源軟件不一樣,過去一個人參與開源的投入,就是他自己的時間成本。但今天如果一個人想搞開源大模型,機器、數(shù)據(jù)的成本都太高了。
問:可以用愛發(fā)電,不能用愛計算。
沈抖:對,訓(xùn)一輪你得扔幾千萬進(jìn)去。
今天跟傳統(tǒng)開源玩法有一點相似是,它們都是用開源來吸引用戶的注意力,最終還是希望選其他(閉源)大模型。
問:有沒有可能出現(xiàn)類似RedHat和IBM的關(guān)系(注:2018年,IBM宣布收購全球最大的開源公司紅帽)?假設(shè)像IBM這樣不甘心的有錢企業(yè)主,愿意支持開源方呢?這樣開源就有資金、數(shù)據(jù)支持了。
沈抖:開源肯定是會長期存在的。隨著大模型越來越受關(guān)注,政府、企業(yè)都可能捐贈去支撐這方面的研究,促進(jìn)整個市場教育。但它最后能產(chǎn)生多大的價值?我覺得它大概率不會成為主流,也不會形成完整閉環(huán)的商業(yè)模式。
傳統(tǒng)的軟件開發(fā)可以形成閉環(huán)。比如你寫了一段代碼或升級了一個功能,可以很快checkin(簽入),整個開源軟件的能力一下就提高了一層。但今天LLaMA發(fā)布完了以后,不管有多少人在用,它沒法checkin回去,數(shù)據(jù)放不回去、算力放不回去、能力也放不回去,形成不了閉環(huán)。
問:很多開源派認(rèn)為,開源模型讀過萬億參數(shù),雖然比不上閉源模型,但是也是很可用的了。就像模型本身雖然沒有985和211畢業(yè)的水平,但至少是個??扑娇梢杂脕碜龈怪钡奈⒄{(diào)了。
沈抖:Foundation Model(基礎(chǔ)模型)到底要不要進(jìn)步?如果說今天Foundation Model已經(jīng)很好了,不用再改了,那沒有問題。但今天的情況是,F(xiàn)oundation Model只有60分,我們要爭取做到90分、95分的問題。
問:為什么要進(jìn)步?很多企業(yè)的真實感受是,GPT3.0都已經(jīng)能解決問題,那進(jìn)步的意義是什么?
沈抖:這是一個很好的問題,我們內(nèi)部也討論過。今天Foundation Model做到60分也能解決很大一部分問題,但它離完美地解決,差距還是很大的。而人性的需求是,但凡你能讓我一次解決的,分兩次絕對不干。
今天你在Foundation Model只有60分的基礎(chǔ)上,訓(xùn)練出了85分。那之后Foundation Model達(dá)到85分,你是不是能得95分呢?人在這方面的追求是無極限的。
這個極限肯定是要繼續(xù)往上拉的。拿搜索舉例,20多年前的搜索就能用,那谷歌這20多年都在干嘛?你看似結(jié)束了,實際上沒有。
問:怎么看大模型接下來的競爭格局?
沈抖:今天市面上有非常多模型,但我認(rèn)為它們很多都會迅速消失。
現(xiàn)在很多模型之所以還存在,是因為很多人還不知道它的好壞。反正誰也試不了,誰也用不了,一測排名還挺靠前。但隨著模型的放開,優(yōu)劣更容易評判了。今天這些做大模型的,你給他三千萬個問題輸進(jìn)去試試,估計一大半都得干趴下。
這會導(dǎo)致流量的逐步集中,頭部模型更容易形成規(guī)模效應(yīng),從而進(jìn)一步分?jǐn)偰P脱邪l(fā)的成本。差距會進(jìn)一步拉大。
問:淘汰賽會什么時候開始?
沈抖:不好說,畢竟大家融的錢可能還得花一段時間。對于大企業(yè)來講,燒還是燒得起的,但也要看它燒的價值何在。有一些企業(yè)是沖著反正自己的應(yīng)用場景很多,這時候讓它去調(diào)別人家的大模型API肯定不干,所以一定會做一個自己的模型。好點、差點(無所謂),至少不用依賴外部。大企業(yè)做模型這件事還會持續(xù)一段時間。
問:未來大模型會不會成為所有應(yīng)用的底座?這會誕生一個完全不同的開發(fā)、應(yīng)用生態(tài)嗎?
沈抖:毫無疑問,大模型會成為一個新時代的操作系統(tǒng),變成很多應(yīng)用的底座。
一直以來,人和人、和機器打交道,都是用語言作為指令。但過去,機器不懂自然語言,我們就硬生生寫了一套程序語言讓它理解?,F(xiàn)在大模型理解了自然語言,整個應(yīng)用開發(fā)范式就發(fā)生了根本性的變化。開發(fā)變得由創(chuàng)意驅(qū)動,而不是由代碼能力驅(qū)動。
另外,大模型也有把系統(tǒng)串聯(lián)起來的能力。像現(xiàn)在插件的出現(xiàn),也就是獨立完成某種能力、等待被調(diào)用的組件,大模型可以把插件組合起來完成一個特定的任務(wù)。這都會進(jìn)一步改變開發(fā)范式。
問:如果大模型能打通所有插件解決問題,這是不是變相實現(xiàn)了互聯(lián)互通?
沈抖:其實依然沒有。實際上,這些APP現(xiàn)在也都存在于同一個手機上、同一個應(yīng)用程序里,它照樣沒有實現(xiàn)互聯(lián)互通。將來在大模型基座上,美團(tuán)接進(jìn)來、滴滴接進(jìn)來,但它們還是沒有互通的。
問:底層的問題沒有解決。
沈抖:對,互聯(lián)互通應(yīng)該指的是數(shù)據(jù)打通,你的數(shù)據(jù)我可以訪問、我的數(shù)據(jù)你可以訪問。但在大模型底座下,我們只是愿意跟這個中樞對話,但我們插件彼此之間并沒有對話。
問:這種不互聯(lián)互通的情況,會不會導(dǎo)致開發(fā)者不能流暢地實現(xiàn)跨資源調(diào)度?這會是中國大模型開發(fā)生態(tài)的缺陷嗎?
沈抖:我覺得主要的原因是沒放開、流量規(guī)模沒起來。比如文心一言一下子有了3000多萬的流量,開發(fā)者一算可能1%是自己的,那也有30萬的訪問了,他就會決定來干。
問:在大模型時代,百度云怎么定義自己在生態(tài)里的位置?利益機制如何分配?
沈抖:以百度一家之力是絕對干不過來的。不是恐怕干不過來,是絕對干不過來。
首先,插件一定會是非常繁榮的生態(tài),它和大模型之間是相輔相成的。插件要從大模型中獲取流量,大模型又需要插件能力的支持,就像今天假設(shè)手機上沒有微信、抖音,用戶可能都不用它了。
其次,在面向終端客戶的應(yīng)用上,無論是私有云部署、還是通過千帆這樣的平臺級方案,最終一定需要生態(tài)伙伴完成最后一公里交付的問題,比如金蝶、用友、軟通動力等。它們有特別熟悉的客戶和業(yè)務(wù)流程,最終需求都會被它集成。
總結(jié)一下,一是開發(fā)生態(tài)的能力聚合、二是幫大模型做交付的合作伙伴、三是用大模型強化自身服務(wù)的客戶,這都是生態(tài)。
問:大模型的技術(shù)范式,給云計算帶來了哪些改變?
沈抖:技術(shù)發(fā)展的脈絡(luò)是越來越高級。換句話講,離底層越來越遠(yuǎn),越來越不需要關(guān)注細(xì)節(jié),封裝越來越好,有大量的人在背后把這些活給干了。這本身也是云貢獻(xiàn)的價值。
早期的CPU云貢獻(xiàn)的價值,就是客戶不用自己買機器一個一個卡綁,它封裝得越來越好、可以在上邊直接用。隨著大模型時代到來,“AI加速芯片”GPU慢慢成為算力中心,算力增長速度遠(yuǎn)遠(yuǎn)超過CPU。這會加速我們從CPU云向GPU云的切換。
在GPU云的時代,最終我們會把云的能力進(jìn)一步封裝,不讓底層暴露出來,形成更高級的交互形態(tài),直接對接大模型的API。今天的云還是給工程師開發(fā)的,交互形態(tài)還不夠徹底,但未來底層的工程師會減少,更多人會往上層走。這是一個大幅的變化。
問:大模型會重塑云計算的市場格局嗎?如果會,什么時候能看到信號?
沈抖:我喜歡這個問題。如果沒有大模型的話,百度的云會打得非常吃力。我們過去一直在喊“深入行業(yè)、聚焦場景、云智一體、AI普惠”,百度智能云想做的就是把AI放到整個ToB的服務(wù)里,讓它成為一個增長點。
但過去,傳統(tǒng)的AI是非常碎片化的。它要針對一個問題生成一個能力,再解決這個問題,通用性比較差。這就導(dǎo)致它都是項目制,很難規(guī)模化,毛利也低。
而生成式AI出來以后,我們看到它的通用性非常好、一下子能解決很多問題,在應(yīng)用層往下基本都是統(tǒng)一的,哪怕需要微調(diào)、需要插件,都是標(biāo)準(zhǔn)化的動作。這跟之前非常碎片化的AI應(yīng)用完全不一樣。這本身就是云業(yè)務(wù)的巨大變化,所謂的IaaS變成了MaaS。
問:過去中國的AI公司都是要落項目,非???。沒法像現(xiàn)在這樣,通過標(biāo)準(zhǔn)化的產(chǎn)品解決問題。
沈抖:我們那時候跟Robin(注:百度創(chuàng)始人、董事長兼CEO李彥宏)討論云戰(zhàn)略,他也要求我們必須得標(biāo)準(zhǔn)化、規(guī)模化,不然體現(xiàn)不出來百度作為一個技術(shù)公司的價值。
問:所以接下來長期都會是標(biāo)準(zhǔn)化和規(guī)?;??
沈抖:大模型在早期有很大的不確定性,今天,很多客戶對大模型的能力上限、邊界、成本、交付、需求方式都還沒有統(tǒng)一認(rèn)知。短時間內(nèi),我們還不能保證客戶都到公有云上來,肯定還是先通過項目制的方式去做。
但即使是這樣的項目制,也跟以前的項目制不一樣。比如我給你私有化部署了模型,它更像是Windows或者是office,先是95版,接著是97版,又來了2000版,你得不斷的升級。看似我給你一個光盤裝到家里了,實際上你得不斷地訂閱。這跟原來搭建的也不一樣。
問:但你們的財務(wù)已經(jīng)出現(xiàn)了改善。今年一季度百度智能云首次實現(xiàn)季度盈利,你們提到原因就是云服務(wù)的標(biāo)準(zhǔn)化,實現(xiàn)了規(guī)模復(fù)用、降低了成本。
沈抖:是的。在單純項目制、或者項目制占比比較高的情況下,交付后毛利太低了。
問:作為百度最高決策層的一員,你平常最關(guān)心和焦慮的問題是什么?經(jīng)常要跟團(tuán)隊討論的問題是什么?
沈抖:在產(chǎn)品形態(tài)上,Robin有一個要求,一定要用AI原生思維來重構(gòu)所有的產(chǎn)品。是重構(gòu),而不是接入。
在技術(shù)上,我們思考的是今天生成式AI的能力還能往上蹦多高。文心一言現(xiàn)在的評測結(jié)果還不錯,但它還遠(yuǎn)遠(yuǎn)沒到人類語言、或者優(yōu)秀人類語言理解的上限。怎么能繼續(xù)快速拉升這個能力,肯定是我們第一位思考的問題。
接著是行業(yè)應(yīng)用上,模型怎么能真正用起來、在哪些場景能用起來、用起來的門檻有多高、邊界有多寬、怎么能提高它的效率、怎么激發(fā)大家想到更好的用法……這都是我們要不斷思考的東西。
問:這些都是比較偏軟的層面,偏硬的層面呢?
沈抖:現(xiàn)在算力集群從千卡到萬卡,百度是中國真正在萬卡級別上跑單一任務(wù)的公司。
在萬卡集群下,組織、效率、保障這些真正底層的工作大家看不見,但是它們極其重要。比如,我們要提高底層硬件和軟硬一體的訓(xùn)練、推理效率。這都是蠻關(guān)鍵的東西。
問:你在百度這么多年一直都負(fù)責(zé)搜索、廣告業(yè)務(wù),直到去年才主掌智能云,馬上就遇到了大模型的歷史機遇。會覺得是一種幸運嗎?你的感受是怎樣的?
沈抖:沒那么夸張,但我確實很興奮、很幸運能去做這么一件事。
去年接手的時候,我就有(把云服務(wù))規(guī)?;?、標(biāo)準(zhǔn)化的思路。但因為AI能力太碎片化了,做起來非常難。當(dāng)時我就使勁在想,有什么東西是既需要AI能力、又需要AI算力、同時還能讓很多人同時去用的?找半天找不著。
然后,大模型就出現(xiàn)了。一下子就感覺順手了。
問:你個人學(xué)的是人工智能方向,大模型是不是也跟你更匹配?
沈抖:這跟我研究生做的事情很相似。雖然我一直學(xué)計算機的,但我做得偏軟件的多一些,一直在人工智能這條線上做。
當(dāng)時接了云(偏底層硬件)以后,我真的又把操作系統(tǒng)、計算機組成原理的書拿來看了一遍。如果說真是CPU時代的IaaS、網(wǎng)絡(luò)組件、存儲計算那套東西,我覺得還是有點難的。
但大模型出來以后,我發(fā)現(xiàn)那些東西被封裝在下面了,我現(xiàn)在主要研究大模型就可以,比如讀論文、自己用Python把千帆上的API調(diào)用一遍等等。我覺得順手多了。
問:接下來,你對百度智能云的發(fā)展增速有怎樣的預(yù)期?
沈抖:百度智能云現(xiàn)在就接近兩百億的盤子,還相對比較小。在大模型的加持下,我們的客戶需求變得很旺盛,現(xiàn)在都忙不過來。不過要想真正讓用戶用起來、做好交付,還需要一個過程。
問:四季度會迎來小爆發(fā)嗎?
沈抖:有人估計四季度會是爆發(fā)的。需求確實開始起來了,但我覺得爆發(fā)的話,可能要到明年。
問:你怎么評價自己的運氣?
沈抖:我覺得這是百度的運氣。百度做AI做了這么多年,下了這么大功夫,如果大模型不來的話,云的商業(yè)化路徑確實更難一些,也很辛苦。這正好說明有Vision的公司,最后運氣也不會太差吧。
2、電商號平臺僅提供信息存儲服務(wù),如發(fā)現(xiàn)文章、圖片等侵權(quán)行為,侵權(quán)責(zé)任由作者本人承擔(dān)。
3、如對本稿件有異議或投訴,請聯(lián)系:info@dsb.cn