首頁  >  文章  >  科技週邊  >  超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

PHPz
PHPz轉載
2023-10-19 11:13:011410瀏覽

GPT-4V來做目標偵測?網友實測:還沒準備好。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

雖然偵測到的類別沒問題,但大多數邊界框都錯放了。

沒關係,有人會出手!

那個搶跑GPT-4看圖能力幾個月的迷你GPT-4升級啦-MiniGPT-v2

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

△(左邊為GPT-4V生成,右邊為MiniGPT-v2生成)

而且只是一句簡單指令:[grounding] describe this image in detail就實現的結果。

不僅如此,還輕鬆處理各類視覺任務。

圈選一個物體,提示字前面加上 [identify] 可讓模型直接辨識出物體的名字。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

當然也可以什麼都不加,直接問~

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

#MiniGPT-v2由來自MiniGPT-4的原班人馬(KAUST沙烏地阿拉伯阿卜杜拉國王科技大學)以及Meta的五位研究員共同開發。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

上次MiniGPT-4剛出來就引發巨大關注,一時間伺服器被擠爆,如今GItHub專案已超22000 顆星。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

此番升級,已經有網友開始用上了~

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

多視覺任務的通用介面

大模型作為各文本應用的通用介面,大家已經司空見慣了。受此靈感,研究團隊想要建立一個可用於多種視覺任務的統一介面,例如圖像描述、視覺問題解答等。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

「如何在單一模型的條件下,使用簡單多模態指令來高效完成各類任務?」成為團隊需要解決的難題。

簡單來說,MiniGPT-v2由三個部分組成:視覺主幹、線性層和大型語言模型。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

此模型以ViT視覺主幹為基礎,所有訓練階段都保持不變。從ViT中歸納出四個相鄰的視覺輸出標記,並透過線性圖層將它們投影到 LLaMA-2語言模型空間。

團隊建議在訓練模型為不同任務使用獨特的標識符,這樣一來大模型就能輕鬆分辨出每個任務指令,還能提高每個任務的學習效率。

訓練主要分為三個階段:預訓練-多任務訓練-多模式指令調整。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

最終,MiniGPT-v2 在許多視覺問題解答和視覺接地基準測試中,成績都優於其他視覺語言通用模型。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

最終這個模型可以完成多種視覺任務,例如目標物件描述、視覺定位、圖像說明、視覺問題解答以及從給定的輸入文字直接解析圖片對象。

超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品

有興趣的朋友,可戳下方Demo連結體驗:

https://minigpt-v2.github.io/
https://huggingface.co/spaces/Vision-CAIR/MiniGPT-v2

論文連結:https://arxiv.org/abs/2310.09478

GitHub連結:https://github.com/Vision-CAIR/MiniGPT-4

以上是超火迷你GPT-4視覺能力暴漲,GitHub兩萬星,華人團隊出品的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除