首页  >  文章  >  科技周边  >  港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

PHPz
PHPz原创
2024-06-12 22:18:00684浏览

当前,多模态大模型 (MLLM)在多项视觉任务上展现出了强大的认知理解能力。

然而大部分多模态大模型局限于单向的图像理解,难以将理解的内容映射回图像上。

比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。

定位能力的缺失直接限制了多模态大模型在图像编辑,自动驾驶,机器人控制等下游领域的应用。

针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式Groma——

通过区域性图像编码来提升多模态大模型的感知定位能力。

在融入定位后,Groma可以将文本内容和图片区域直接关联起来,从而显着提升对话的交互性和指向性。这种方式不会改变原有的意思,只是微调了表达方式。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体
港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

核心思路

如何赋予多模态大模型定位物体的能力,即将文字内容和图像区域关联起来,做到“言之有物”,是当前一大研究热点。 多模态大模型的目标是在给定一张图像和相应的文字描述时,能够找到图像中与描述相对应的区域。此任务被称为图像和文本对齐(image-text alignment)问题。 为了解决这个问题,

常见的做法是微调大语言模型使其直接输出物体坐标。然而这种方法却有着诸多限制:

1、在文本上预训练的大语言模型本身不具备空间理解能力,仅依靠少量数据微调很难精准定位物体。

2、定位任务对输入图像的分辨率有较高要求,但提高分辨率会显着增加多模态大模型的计算量。

3、大语言模型的输出形式不适合处理精细的定位任务,比如分割。

基于这些考虑,Groma提出将定位转移到多模态大模型的vision tokenizer中,由vision tokenizer发现并定位潜在的物体,再交给大语言模型识别。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

同时,这样的设计也充分利用了vision tokenizer本身的空间理解能力,而无需外接专家模型(比如SAM)来辅助定位,从而避免了外接模型的冗余。

具体而言,Groma在全局图像编码的基础上,引入了区域编码来实现定位功能——如下图所示,Groma先利用Region Proposer定位潜在的物体,再通过Region Encoder将定位到的区域逐一编码成region token。

而大语言模型则可以根据region token的语意判断其对应的区域,并通过在输出中插入region token来达成类似超链接的效果,实现visually grounded conversation。

同样地,用户指定的区域也可以通过Region Encoder编码成相应的region token,并插入到用户指令中,从而让多模态模型能关注到指定的区域并产生指向性的回答。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

为了提升定位的鲁棒性和准确性,Groma采用了超过8M的数据(包括SA1B)来预训练Region Proposer。因此其产生的proposal不仅包括常见的物体,也涵盖了物体的组成部分以及更广阔的背景等要素。

此外,得益于分离式的设计,Groma可以采用高分辨率特征图用于Region Proposer/Encoder的输入,并采用低分辨率的特征图用于大模型输入,从而在降低计算量的同时又不损失定位性能。

实验结果

Groma在传统的Grounding Benchmarks上表现出了超越MiniGPT-v2和Qwen-VL的性能。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

同时,Groma在多模态大模型通用的VQA Benchmark (LLaVA-COCO)验证了其对话和推理能力。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

在視覺化的對比中,Groma也表現出了更高的recall和更少的幻覺。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

此外,Groma也支援融合對話能力和定位能力的referential dialogue以及grounded chat。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

#得益於大語言模型強大的認知推理能力,多模態大模型在視覺理解任務上表現突出。

然而一些傳統的視覺任務,如檢測分割、深度估計等,更依賴視覺感知能力,這恰恰是大語言模型所缺乏的。

Groma在這個問題上提供了一種新的解決思路,即把感知和認知解耦開來,由vision tokenizer負責感知,大語言模型負責認知。

這種先感知後認知的形式除了更符合人類的視覺過程,也避免了重新訓練大語言模型的計算開銷。

5月15日,位元組跳動剛剛公佈了自研的豆包大模型,提供多模態能力,下游支援豆包APP、釦子、即夢等50+業務,並透過火山引擎開放給企業客戶,協助企業提升效率、加速智慧化創新。目前,豆包APP已成為中國市場用戶量最大的AIGC應用程式。位元組跳動正持續加強對頂尖人才和尖端技術的投入力度,參與業界頂尖的技術挑戰與攻堅。

計畫網站:
https://www.php.cn/link/07a81d45ff030b63fe2a0f375b779f09
#論文連結:
https://www.php.cn/link/b82b80956cfbe75101bd223fe6319dec
#開源代碼:
https://www.php.cn/link/b984bddf9e7c8fb09854e208c0284764

以上是港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn