騰訊于旸:第六次革命性技術(shù)浪潮可能已經(jīng)悄然到來了
8月4日消息,“以ChatGPT為代表的大語言模型表現(xiàn)讓人驚嘆,第六次革命性的技術(shù)浪潮可能已經(jīng)悄然到來了。”騰訊杰出科學(xué)家、騰訊安全玄武實驗室負(fù)責(zé)人于旸在2023外灘新媒體年會上暢談人工智能技術(shù)的發(fā)展。
2023外灘新媒體年會由澎湃新聞網(wǎng)主辦、華彬快消品集團(tuán)特別支持,今年大會的主題為“堅守媒體初心,擁抱AI時代”。在會議上,于旸帶來《AI大模型:星辰與泥土》的主旨演講,他表示,人工智能技術(shù)聽起來很高大上,但技術(shù)要落到實處、用到實處、實實在在發(fā)揮作用,還要做到接地氣,人工智能技術(shù)需要轉(zhuǎn)化為接地氣的應(yīng)用才能更好地服務(wù)于行業(yè)用戶。
于旸對技術(shù)革命有獨到的見解。他認(rèn)為,過去幾百年里,人類社會發(fā)生了5次科技浪潮,每一次浪潮都對世界產(chǎn)生了深遠(yuǎn)的影響。而且每次浪潮間隔的時間逐漸變短,也就是說,人類每一次科技進(jìn)步形成的紅利被消化的時間越來越短,科技進(jìn)步的速度越來越快。
圖注:騰訊杰出科學(xué)家、騰訊安全玄武實驗室負(fù)責(zé)人于旸
(圖源澎湃新聞網(wǎng),下同)
今年全球爆火的ChatGPT則是具有代表性的大語言模型應(yīng)用,展現(xiàn)了超強(qiáng)的人機(jī)對話能力和任務(wù)求解能力。公開資料顯示,作為人工智能技術(shù)重要的研究方向之一,語言模型得到了學(xué)術(shù)界的廣泛研究,從早期的統(tǒng)計語言模型和神經(jīng)語言模型開始,發(fā)展到基于Transformer的預(yù)訓(xùn)練語言模型。
“過去一年里,大語言模型可能已經(jīng)讓人工智能技術(shù)發(fā)生了質(zhì)變?!庇跁D認(rèn)為,人工智能經(jīng)歷了很多年發(fā)展,雖然出現(xiàn)了幾次現(xiàn)象級的“破圈”事件,但在產(chǎn)業(yè)界一直只是被用于實現(xiàn)一些相對低級的智能,而以ChatGPT為代表的大語言模型的出現(xiàn)讓情況發(fā)生了改變。大語言模型可以做一些只有人類才能做的事情,甚至不是所有人都能做到的事情。例如他通過實驗發(fā)現(xiàn),大模型技術(shù)不但可以理解人類的語言,甚至可以聽出語言的言外之意,理解隱喻。
不過要在各行業(yè)里應(yīng)用大語言模型技術(shù),可能需要相應(yīng)的行業(yè)大模型。于旸分析,目前大家在網(wǎng)上接觸的大語言模型聊天機(jī)器人就像博學(xué)多才的萬事通,在很多事情上都能做到60、70分,但行業(yè)應(yīng)用更需要的是在某一件事情上能做到95分甚至100分,這需要各行各業(yè)針對自己的需求訓(xùn)練專用的行業(yè)大模型。
但訓(xùn)練大語言模型絕非易事。于旸解釋,大模型又是技術(shù)密集型又是資源密集型,既需要懂專業(yè)技術(shù)的人才,還需要海量的計算資源,涉及一系列復(fù)雜的問題,例如數(shù)據(jù)獲取來源和應(yīng)用是否合法合規(guī),訓(xùn)練出來的模型是否符合監(jiān)管要求等等。
圖注:于旸在2023外灘新媒體年會上作主旨演講
值得一提的是,騰訊云推出的媒體AI中臺也用了大模型技術(shù)進(jìn)行全新升級,哪怕是萬字長文,也可以幾秒鐘內(nèi)生成標(biāo)題和摘要,除了能夠理解文本內(nèi)容,還可以理解圖片的情境。
針對很多用戶關(guān)心的數(shù)據(jù)隱私問題,于旸負(fù)責(zé)的玄武實驗室也正在研究一種大模型隱私保護(hù)技術(shù)。以媒體行業(yè)常用的內(nèi)容摘要場景為例,它將用戶輸入的文本經(jīng)過一種同態(tài)加密處理,使之變得“面目全非”,然后把這份面目全非的內(nèi)容交給在線的摘要系統(tǒng)處理并返回結(jié)果,隱私保護(hù)系統(tǒng)再將其變成正確的結(jié)果。通過這樣一個加密、解密的過程,讓用戶使用效果不打折扣,但同時又能保護(hù)數(shù)據(jù)隱私。
“在每一次的浪潮里,不是一項技術(shù)就能夠帶動整個社會的發(fā)展,而是某一項技術(shù)引領(lǐng),多項技術(shù)相互作用,共同推動世界的改變。”于旸說。
2、電商號平臺僅提供信息存儲服務(wù),如發(fā)現(xiàn)文章、圖片等侵權(quán)行為,侵權(quán)責(zé)任由作者本人承擔(dān)。
3、如對本稿件有異議或投訴,請聯(lián)系:info@dsb.cn