搜尋
首頁科技週邊人工智慧BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」

多模態大語言模型(Multimodal Large Language Model,MLLM)依賴LLM豐富的知識儲備以及強大的推理和泛化能力來解決多模態問題,目前已經湧現出一些令人驚嘆的能力,例如看圖寫作和看圖寫程式。

但僅根據這些範例很難充分反映MLLM的效能,目前仍缺乏對MLLM的全面評測。

為此,騰訊優圖實驗室聯合廈門大學在新建的評測基準MM上首次對現有12種開源MLLM模型進行了全面定量評測並公佈了16個排行榜,包含感知和認知兩個總榜以及14個子榜單:

BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」

論文連結:https://arxiv.org/pdf /2306.13394.pdf

專案連結:https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models/tree/Evaluation

#現有MLLM的量化評測方法主要分為三類,但都存在一定的限制導致難以全面反映其效能。

第一類方法在傳統的公開資料集上進行評測,例如影像描述(Image Caption)和視覺問答(VQA)資料集。 BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」

但一方面這些傳統資料集可能難以反映MLLM湧現的新能力,另一方面由於大模型時代的訓練集都不再統一,因此難以保證這些評測資料集沒有被其他MLLM訓練過。

第二種方式是收集新的資料進行開放式評測,但這些資料要麼未公開[1],要麼數量太少(只有50張)[2]。

第三種方式聚焦在MLLM的某個特定面向,例如物件幻覺(Object Hallucination)[3]或對抗穩健性[4],無法做全面評測。

目前亟需一個全面的評測基準來符合MLLM的快速發展。研究人員認為一個通用的全面評測基準應該具有以下特點:

######(1)應該涵蓋盡可能多的範圍,包括感知和認知能力。前者指的是辨識物體,包括其存在性、數量、位置和顏色等。後者指的是綜合感知資訊以及LLM中的知識來進行更複雜的推理。其中前者是後者的基礎。 ############(2)資料或標註應該盡量避免採用現有的公開資料集,以減少資料外洩的風險。 ############(3)指令應該盡可能簡潔並且符合人類的認知習慣。不同的指令設計可能會極大影響模型的輸出,但所有的模型都在統一的簡潔指令下進行評測可以保證公平性。一個好的MLLM模型應該具備泛化到這種簡潔指令上的能力,避免陷入Prompt Engineering。 ############(4)MLLM在該簡潔指令下的輸出應該是直覺的並且便於定量統計。 MLLM開放式的回答給量化統計提出了很大挑戰。現有方法傾向於使用GPT或人工評分,但可能面臨不準確和主觀性的問題。 #####################圖1. MME評測基準範例。每張圖片對應兩個問題,答案分別為Yes[Y]和No[N]。問題加上「Please answer yes or no」共同構成指令。 ############基於以上原因,一個新的MLLM評測基準MME被建構出來,它同時具備以上四個特點:############1. MME同時評測知覺和認知能力。除了OCR外,感知能力還包括粗粒度和細粒度目標識別。前者辨識物體的存在性、數量、位置和顏色。後者識別電影海報、名人、場景、地標和藝術品。認知能力包括常識推理、數值計算、文字翻譯和程式碼推理。總的子任務數達到14種,如圖1所示。 ############2. MME中所有的指令-答案對都是人工建構的。對於少量使用到的公開資料集,僅使用其影像而沒有依賴其原始標註。同時,研究人員也盡力透過人工拍攝和影像生成的方式來擷取數據。 ######

3. MME的指令設計得盡量簡潔以避免Prompt Engineering對模型輸出的影響。研究者再次申明一個好的MLLM應該要泛化到這種簡潔且使用頻繁的指令,這對所有模型都是公平的。圖1中顯示了每個子任務的指令。

4. 得益於指令設計“Please answer yes or no”,可以方便地根據模型輸出的“Yes”或“No”進行定量統計,這種方式可以同時保證準確性和客觀性。值得注意的是,研究者也嘗試設計選擇題的指令,但發現目前的MLLM仍難以跟隨這類較為複雜的指令。

研究人員一共評測了12種先進的MLLM模型,包括BLIP-2 [5]、LLaVA [6]、MiniGPT-4 [7]、 mPLUG-Owl [2] 、LLaMA-Adapter-v2 [8]、Otter [9]、Multimodal-GPT [10]、InstructBLIP [11]、 VisualGLM-6B [12], PandaGPT [13], ImageBind-LLM [14] 與LaVIN [15] 。

其中,統計指標有三種,包含Accuracy,Accuracy 和Score。其中對於每個任務,Accuracy是基於問題統計而來,Accuracy 是基於圖片統計而來(圖片對應的兩個問題都需要正確回答),Score是Accuracy和Accuracy 的和。

知覺的總分為10個知覺類別子任務Score的總和,認知的總分是4種認知類別任務Score的總和。具體詳見項目連結。

12種模型在14種子任務上的測試比較如圖2所示:

BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」

圖2. 12種模型在14種子任務上的比較。每種子任務的滿分為200分。

總共16個榜單,包括感知類別和認知類別的總榜單以及14個子任務的榜單也已發布。兩個總榜單分別如圖3和圖4所示,值得注意的是BLIP-2和InstructBLIP在這兩個名單中都維持在前三名。

BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」圖片

圖3.感知類別任務總榜單

BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」

#圖4.認知類別任務總榜單

BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」

#圖5.所有榜單

BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」

##另外研究人員也總結了MLLM模型在實驗中揭露的一些通用問題,如圖6所示,希望可以為後續的模型最佳化提供指導。

圖片

圖6.MLLM揭露的通用問題。 [Y]/[N]表示真實的答案是Yes/No。 [R]是MLLM生成的答案。

######第一個問題是不跟隨指令。 #####################儘管已經採用了非常簡潔的指令設計,但仍然有MLLM自由回答問題而不是跟隨指令。 ############如圖6中的第一行所示,指令已經申明「Please answer yes or no”,但MLLM僅給出了一個陳述性答案。如果回答的開頭沒有出現「Yes」或「No」,都判定該回答錯誤。一個好的MLLM,尤其是經過指令微調後,應該可以泛化到這種簡單的指令上。 ###############第二個問題是缺乏感知能力。 #####################如圖6中的第二行所示,MLLM錯誤地辨識了第一張圖片中香蕉的數量和第二張圖片中的數字,導致回答錯誤。研究人員也注意到感知的性能很容易受到指令變化的影響,因為同一張圖的兩個指令只相差一個單詞,但導致了完全不同的感知結果。 ######

第三個問題是缺乏推理能力。

如圖6中的第三行所示,從紅色的文字可以看出MLLM已經知道了第一張圖片不是一個辦公室,但仍然給出了一個錯誤的回答「Yes」。

相似地,在第二張圖片中,MLLM已經計算得到了正確的算數結果,但最終也給出了錯誤的答案。再加上思維鏈Prompt,例如「Let’s think step by step」或許能帶來更好的效果。期待這方面有更深入的研究。

第四個問題跟隨指令的物件幻視。如圖6中的第四行所示,當指令中含有圖片中不存在的物體時,MLLM將會幻想該物體存在並最終給出一個「Yes」的答案。

這種總是回答「Yes」的方式導致了Accuracy接近50%,Accuracy 接近於0。這顯示抑制目標幻視的重要性,也需要進一步思考MLLM產生的答案的可靠性。

以上是BLIP-2、InstructBLIP穩居前三名!十二大模型,十六份榜單,全面評測「多模態大語言模式」的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
从VAE到扩散模型:一文解读以文生图新范式从VAE到扩散模型:一文解读以文生图新范式Apr 08, 2023 pm 08:41 PM

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了Apr 08, 2023 pm 06:21 PM

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

普林斯顿陈丹琦:如何让「大模型」变小普林斯顿陈丹琦:如何让「大模型」变小Apr 08, 2023 pm 04:01 PM

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

解锁CNN和Transformer正确结合方法,字节跳动提出有效的下一代视觉Transformer解锁CNN和Transformer正确结合方法,字节跳动提出有效的下一代视觉TransformerApr 09, 2023 pm 02:01 PM

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

Stable Diffusion XL 现已推出—有什么新功能,你知道吗?Stable Diffusion XL 现已推出—有什么新功能,你知道吗?Apr 07, 2023 pm 11:21 PM

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

​什么是Transformer机器学习模型?​什么是Transformer机器学习模型?Apr 08, 2023 pm 06:31 PM

译者 | 李睿审校 | 孙淑娟​近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

五年后AI所需算力超100万倍!十二家机构联合发表88页长文:「智能计算」是解药五年后AI所需算力超100万倍!十二家机构联合发表88页长文:「智能计算」是解药Apr 09, 2023 pm 07:01 PM

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:​https://spj.scien

AI模型告诉你,为啥巴西最可能在今年夺冠!曾精准预测前两届冠军AI模型告诉你,为啥巴西最可能在今年夺冠!曾精准预测前两届冠军Apr 09, 2023 pm 01:51 PM

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
2 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

SAP NetWeaver Server Adapter for Eclipse

SAP NetWeaver Server Adapter for Eclipse

將Eclipse與SAP NetWeaver應用伺服器整合。

VSCode Windows 64位元 下載

VSCode Windows 64位元 下載

微軟推出的免費、功能強大的一款IDE編輯器

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)