激情六月丁香婷婷|亚洲色图AV二区|丝袜AV日韩AV|久草视频在线分类|伊人九九精品视频|国产精品一级电影|久草视频在线99|在线看的av网址|伊人99精品无码|午夜无码视频在线

高校合作1:010-59833514 ?咨詢電話:400-810-1418 服務(wù)與監(jiān)督電話:400-810-1418轉(zhuǎn)接2

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

發(fā)布時(shí)間:2023-11-28 14:55:23 瀏覽量:129次

性能已達(dá)到GPT-4V的85%

克雷西 發(fā)自 凹非寺

|  

GPT-4的視覺能力還沒全量放開測(cè)試,開源對(duì)手就隆重登場(chǎng)了。

浙大竺院的一位校友,與微軟研究院等機(jī)構(gòu)合作推出了新版多模態(tài)模型LLaVA。

LLaVA在11個(gè)測(cè)試數(shù)據(jù)集上都成為了SOTA,在GitHub上更是斬獲6k+星標(biāo)。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

開發(fā)者提供的數(shù)據(jù)顯示,LLaVA的綜合能力已經(jīng)達(dá)到了GPT-4V水平的85%,在復(fù)雜推理任務(wù)上更是超過了96%。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

讀驗(yàn)證碼、判斷狗的品種,甚至根據(jù)圖像生成網(wǎng)頁代碼……都難不倒LLaVA。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

△/Matt Shumer

資源方面,LLaVA的樣本量?jī)H為120萬,在單臺(tái)8*A100的機(jī)器上,1天就能完成訓(xùn)練。

不過體驗(yàn)過的網(wǎng)友普遍表示,LLaVA離GPT-4V還存在一些差距。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

那么LLaVA究竟表現(xiàn)如何,我們也實(shí)測(cè)了一番。

和GPT-4V有差距,但也能用

為了更加直觀地對(duì)比LLaVA和GPT-4V的表現(xiàn),我們直接使用了微軟發(fā)布的GPT-4V說明書中的案例。

首先來看最基本的人物識(shí)別。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

這里GPT-4V說明書中使用的prompt是描述這張圖,我們也如法炮制。

結(jié)果LLaVA不僅一個(gè)名字也沒提,還把人數(shù)也數(shù)錯(cuò)了,但也判斷出了這里面有足球運(yùn)動(dòng)員、演員和歌星。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

于是我們繼續(xù)追問LLaVA這些人的名字,結(jié)果它告訴我們信息量不足以判斷。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

這輪GPT-4V略勝一籌,不過或許是因?yàn)橐幌掳藗€(gè)人太多了,于是我們又給LLaVA加試了一道簡(jiǎn)單些的題。

這次經(jīng)過一輪追問,LLaVA成功認(rèn)出了圖片中的老馬和小扎,所以這輪我們算它過關(guān)。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

那如果是專業(yè)的圖像呢?比如醫(yī)學(xué)影像。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

GPT-4V的答案是肺部感染或炎癥,而LLaVA說的是吸煙或慢阻肺引發(fā)的凋亡細(xì)胞和瘢痕組織。

不過兩個(gè)模型都沒有確定自己的結(jié)論,都提示需要進(jìn)一步檢查,不過LLaVA給出的“黑色部分組織有異常”是正確的。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

除了這些真·圖像之外,文字識(shí)別也是多模態(tài)模型測(cè)試中的一項(xiàng)常見任務(wù)。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

這張圖中,LLaVA成功識(shí)別了里面的英文,但下面的日文片假名無論如何也認(rèn)不出來。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

除了上面這些正經(jīng)的內(nèi)容,LLaVA能不能解讀表情包呢?

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

這次,LLaVA正確識(shí)別了圖中的青蛙玩具和文字,而對(duì)表情包的解釋,對(duì)了一半。

這個(gè)表情包諷刺的是有一群人發(fā)現(xiàn)自己錯(cuò)過了計(jì)劃時(shí)間之后反而把預(yù)定事項(xiàng)推得更遲,LLaVA只說出了前面一半。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

總結(jié)下來就是,GPT-4V的識(shí)別技能,LLaVA基本上也都會(huì),但又都差點(diǎn)意思。

換言之就是,雖然沒那么厲害,但也是能用的水平了。

那么,LLaVA是如何打造出來的呢?

由Vicuna和CLIP結(jié)合而成

LLaVA的訓(xùn)練一共分為兩個(gè)階段。

首先是將文本與圖像對(duì)齊的預(yù)訓(xùn)練過程,這一階段一共使用了60萬對(duì)圖像-文本信息。

第二階段則是在對(duì)齊的基礎(chǔ)上使用視覺指令進(jìn)行調(diào)優(yōu),讓LLaVA熟悉用戶可能問到的各種問題。

模型結(jié)構(gòu)方面,LLaVA的語言模型是羊駝家族的Vicuna,視覺模型則采用了OpenAI的CLIP,并以MLP作為模態(tài)連接器。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

為了讓LLaVA能夠識(shí)別更多專業(yè)領(lǐng)域的內(nèi)容,研究團(tuán)隊(duì)在開發(fā)過程中還使用了ScienceQA數(shù)據(jù)集。

開發(fā)過程完畢之后,研究團(tuán)隊(duì)使用GPT-4對(duì)LLaVA的輸出內(nèi)容進(jìn)行評(píng)價(jià)。

利用COCO數(shù)據(jù)集中的內(nèi)容,開發(fā)者設(shè)計(jì)了三種類型的問題,然后讓LLaVA輸出答案并交給GPT-4評(píng)分。

  • 問答式對(duì)話:將COCO數(shù)據(jù)集中的問題改編成問句進(jìn)行提問
  • 細(xì)節(jié)描述:要求LLaVA對(duì)圖像內(nèi)容提供更詳細(xì)具體的說明
  • 復(fù)雜推理:要求LLaVA在理解的基礎(chǔ)上推理出圖像中沒有直接顯含的信息(如:人物關(guān)系)

目前,LLaVA的代碼、模型和訓(xùn)練數(shù)據(jù)都已經(jīng)開源,有7B和13B兩個(gè)參數(shù)量的模型,均為全量微調(diào),LoRA版本也將很快發(fā)布。

挑戰(zhàn)GPT-4V,浙大校友推出開源版多模態(tài)大模型,獲GitHub 6k+星標(biāo)

作者簡(jiǎn)介

LLaVA相關(guān)論文的第一作者是威斯康星大學(xué)麥迪遜分校的華人博士生Haotian Liu。

他還是一名浙大竺院校友,期間師從計(jì)算機(jī)學(xué)院金小剛教授和吳飛教授。

他的現(xiàn)任導(dǎo)師Yong Jae Lee則是相關(guān)論文的通訊作者。

此外,來自微軟研究院和哥倫比亞大學(xué)的學(xué)者也有參與LLaVA的相關(guān)工作。

項(xiàng)目主頁(內(nèi)含DEMO及GitHub、HuggingFace鏈接):
https://llava-vl.github.io/

論文地址:
[1]https://arxiv.org/abs/2304.08485
[2]https://arxiv.org/abs/2310.03744

— 完 —

QbitAI · 頭條號(hào)簽約

關(guān)注我們,第一時(shí)間獲知前沿科技動(dòng)態(tài)

熱門課程推薦

熱門資訊

請(qǐng)綁定手機(jī)號(hào)

x

同學(xué)您好!

您已成功報(bào)名0元試學(xué)活動(dòng),老師會(huì)在第一時(shí)間與您取得聯(lián)系,請(qǐng)保持電話暢通!
確定