在此基础上,网易伏羲基于图文理解大模型进一步创新,提出一种基于关键局部信息的选取与重建的跨模态检索方法,为多模态智能体解决特定领域下的图像文本交互问题奠定技术基础。
以下为本次入选论文概要:
《Selection and Reconstruction of Key Locals: A Novel Specific Domain Image-Text Retrieval Method》
关键局部信息的选取与重建:一种新颖的特定领域图文检索方法
关键词:关键局部信息,细粒度,可解释
涉及领域:视觉语言预训练(VLP),跨模态图文检索(CMITR)
近年来,随着视觉语言预训练 (Vision-Language Pretraining, VLP) 模型的兴起,跨模态图像文本检索 (Cross-Modal Image-Text Retrieval, CMITR) 领域取得了显著进展。尽管像 CLIP 这样的 VLP 模型在一般领域的 CMITR 任务中表现出色,但在特定领域图像文本检索 (Specific Domain Image-Text Retrieval, SDITR) 中,其性能往往会存在不足。这是因为特定领域通常具有独特的数据特征,这些特征区别于一般领域。
在特定领域内,图像之间可能展现出高度的视觉相似性,而语义差异则往往集中在关键的局部细节上,例如图像中的特定对象区域或文本中含义丰富的词汇。即使是这些局部片段的细微变化也可能对整个内容产生显著影响,从而凸显了这些关键局部信息的重要性。因此,SDITR 要求模型专注于关键的局部信息片段,以增强图像与文本特征在共享表示空间中的表达,进而改进图像与文本之间的对齐精度。
本课题通过探索视觉语言预训练模型在特定领域图像-文本检索任务中的应用,研究了特定领域图像-文本检索任务中的局部特征利用问题。主要贡献在于提出了一种利用具有判别性的细粒度局部信息的方法,优化图像与文本在共享表示空间中的对齐。
为此,我们设计了显式关键局部信息选择和重建框架和基于多模态交互的关键局部段重构策略,这些方法有效地利用了具有判别性的细粒度局部信息,从而显著提升了图像与文本在共享空间中的对齐质量,广泛和充分的实验证明了所提出策略的先进性和有效性。
在此特别感谢西安电子科技大学IPIU实验室对本论文的大力支持与重要研究贡献。
此项研究成果不仅标志着网易伏羲在多模态研究领域再次取得重要突破,也为特定领域的跨模态理解提供了全新的视角和技术支撑。优化图像与文本在特定场景下的交互准确度,这项工作为跨模态理解技术在实际应用场景中的提升奠定了坚实的基础。以上是ACM MM2024 | 网易伏羲多模态研究再获国际认可,推动特定领域跨模态理解新突破的详细内容。更多信息请关注PHP中文网其他相关文章!