亚洲无码高清自拍偷拍自慰av网站,免费高清无码黄色网,欧美一级片免费在线观看,午夜毛片在线观看

阿里云推出大規(guī)模視覺(jué)語(yǔ)言模型Qwen-VL

周興
2023-08-26 17:42

8月26日消息,阿里云推出大規(guī)模視覺(jué)語(yǔ)言模型Qwen-VL,一步到位、直接開(kāi)源。

Qwen-VL以通義千問(wèn)70億參數(shù)模型Qwen-7B為基座語(yǔ)言模型研發(fā),支持圖文輸入,具備多模態(tài)信息理解能力。在主流的多模態(tài)任務(wù)評(píng)測(cè)和多模態(tài)聊天能力評(píng)測(cè)中,Qwen-VL取得了遠(yuǎn)超同等規(guī)模通用模型的表現(xiàn)。

Qwen-VL是支持中英文等多種語(yǔ)言的視覺(jué)語(yǔ)言(Vision Language,VL)模型,相較于此前的VL模型,Qwen-VL除了具備基本的圖文識(shí)別、描述、問(wèn)答及對(duì)話能力之外,還新增了視覺(jué)定位、圖像中文字理解等能力。

format-jpg

(圖源阿里云公眾號(hào),下同)

多模態(tài)是通用人工智能的重要技術(shù)演進(jìn)方向之一。業(yè)界普遍認(rèn)為,從單一感官的、僅支持文本輸入的語(yǔ)言模型,到“五官全開(kāi)”的,支持文本、圖像、音頻等多種信息輸入的多模態(tài)模型,蘊(yùn)含著大模型智能躍升的巨大可能。多模態(tài)能夠提升大模型對(duì)世界的理解程度,充分拓展大模型的使用場(chǎng)景。

視覺(jué)是人類(lèi)的第一感官能力,也是研究者首先想賦予大模型的多模態(tài)能力。繼此前推出M6、OFA系列多模態(tài)模型之后,阿里云通義千問(wèn)團(tuán)隊(duì)又開(kāi)源了基于Qwen-7B的大規(guī)模視覺(jué)語(yǔ)言模型(Large Vision Language Model, LVLM)Qwen-VL。Qwen-VL及其視覺(jué)AI助手Qwen-VL-Chat均已上線ModelScope魔搭社區(qū),開(kāi)源、免費(fèi)、可商用。

用戶(hù)可從魔搭社區(qū)直接下載模型,也可通過(guò)阿里云靈積平臺(tái)訪問(wèn)調(diào)用Qwen-VL和Qwen-VL-Chat,阿里云為用戶(hù)提供包括模型訓(xùn)練、推理、部署、精調(diào)等在內(nèi)的全方位服務(wù)。

format-jpg

Qwen-VL可用于知識(shí)問(wèn)答、圖像標(biāo)題生成、圖像問(wèn)答、文檔問(wèn)答、細(xì)粒度視覺(jué)定位等場(chǎng)景。

Qwen-VL以Qwen-7B為基座語(yǔ)言模型,在模型架構(gòu)上引入視覺(jué)編碼器,使得模型支持視覺(jué)信號(hào)輸入,并通過(guò)設(shè)計(jì)訓(xùn)練過(guò)程,讓模型具備對(duì)視覺(jué)信號(hào)的細(xì)粒度感知和理解能力。Qwen-VL支持的圖像輸入分辨率為448,此前開(kāi)源的LVLM模型通常僅支持224分辨率。在Qwen-VL 的基礎(chǔ)上,通義千問(wèn)團(tuán)隊(duì)使用對(duì)齊機(jī)制,打造了基于LLM的視覺(jué)AI助手Qwen-VL-Chat,可讓開(kāi)發(fā)者快速搭建具備多模態(tài)能力的對(duì)話應(yīng)用。

1、該內(nèi)容為作者獨(dú)立觀點(diǎn),不代表電商派觀點(diǎn)或立場(chǎng),文章為作者本人上傳,版權(quán)歸原作者所有,未經(jīng)允許不得轉(zhuǎn)載。
2、電商號(hào)平臺(tái)僅提供信息存儲(chǔ)服務(wù),如發(fā)現(xiàn)文章、圖片等侵權(quán)行為,侵權(quán)責(zé)任由作者本人承擔(dān)。
3、如對(duì)本稿件有異議或投訴,請(qǐng)聯(lián)系:info@dsb.cn
相關(guān)閱讀
8月25日消息,阿里今日推出大規(guī)模視覺(jué)語(yǔ)言模型Qwen-VL,并對(duì)其直接開(kāi)源。Qwen-VL以通義千問(wèn)70億參數(shù)模型Qwen-7B為基座語(yǔ)言模型研發(fā),支持圖文輸入。相較于此前的VL模型,Qwen-VL除了具備基本的圖文識(shí)別、描述、問(wèn)答及對(duì)話能力之外,還新增了視覺(jué)定位、圖像中文字理解等能力,可用于知識(shí)問(wèn)答、圖像標(biāo)題生成、圖像問(wèn)答、文檔問(wèn)答、細(xì)粒度視覺(jué)定位等場(chǎng)景。
阿里開(kāi)源通義千問(wèn)140億參數(shù)模型Qwen-14B及其對(duì)話模型Qwen-14B-Chat,免費(fèi)可商用。
阿里CTO周靖人今天宣布阿里開(kāi)源通義千問(wèn)720億參數(shù)模型Qwen-72B。
12月1日消息,在通義千問(wèn)發(fā)布會(huì)上,阿里開(kāi)源通義千問(wèn)720億參數(shù)模型Qwen-72B、18億參數(shù)模型Qwen-1.8B及音頻大模型Qwen-Audio。據(jù)悉,阿里本次開(kāi)源的模型中除預(yù)訓(xùn)練模型外,還同步推出了對(duì)應(yīng)的對(duì)話模型,面向72B、1.8B對(duì)話模型提供了4bit/8bit量化版模型,便于開(kāi)發(fā)者們推理訓(xùn)練。
8月3日消息,據(jù)36氪,阿里今日開(kāi)源通義千問(wèn)70億參數(shù)模型,包括通用模型Qwen-7B和對(duì)話模型Qwen-7B-Chat,兩款模型均已上線魔搭社區(qū),開(kāi)源、免費(fèi)、可商用。此舉讓阿里成為國(guó)內(nèi)首個(gè)加入大模型開(kāi)源行列的大型科技企業(yè)。
12月4日消息,阿里近日開(kāi)源了通義千問(wèn)720億參數(shù)模型Qwen-72B,這也是目前國(guó)內(nèi)大模型開(kāi)源的最大參數(shù),至此,通義千問(wèn)共開(kāi)源了18億、70億、140億、720億參數(shù)的4款大模型。阿里CTO周靖人在通義千問(wèn)發(fā)布會(huì)后做了一場(chǎng)閉門(mén)分享,他提到:“我們能看到之間有一定差距,還有需要提升的空間,但是不能妄自菲薄。比如多模態(tài)等,國(guó)內(nèi)很多產(chǎn)品也能做到ChatGPT的水平,甚至超越它。通義千問(wèn)和ChatGPT 4.0在使用體感上,是互有勝負(fù)的?!?/div>
9月25日消息,阿里智能首席技術(shù)官周靖人在通義千問(wèn)開(kāi)源發(fā)布會(huì)上宣布,將全新開(kāi)源性能更強(qiáng)的大模型Qwen-14B,該模型基于140億參數(shù),3萬(wàn)億token訓(xùn)練的開(kāi)源大模型提供更強(qiáng)大的推理、認(rèn)知、規(guī)劃和記憶能力。此外,相比之前的開(kāi)源版本,新的QWEN-7B模型能力普遍提升,核心指標(biāo)最高提升22.5%。
11月21日消息,在世界互聯(lián)網(wǎng)大會(huì)烏鎮(zhèn)峰會(huì)上,阿里“全模態(tài)全尺寸的通義開(kāi)源大模型”被評(píng)為2024中國(guó)互聯(lián)網(wǎng)企業(yè)創(chuàng)新發(fā)展典型案例,成為唯一入選的開(kāi)源大模型成果案例。據(jù)悉,通義Qwen是全球領(lǐng)先的大模型,多次登頂國(guó)內(nèi)外權(quán)威大模型榜單,全球范圍內(nèi)基于Qwen的衍生模型數(shù)逾7.8萬(wàn)個(gè),Qwen已成為全球規(guī)模最大的生成式模型群。