现在甚至有了大型的多模态高分辨率文档!
这项技术不仅能够准确识别图像中的信息,还能够根据用户需求调用自身的知识库来回答问题
比如,看到图中马里奥的界面,直接就回答出了这是任天堂公司的作品。
这个模型是由字节跳动和中国科学技术大学合作研究的,于2023年11月24日上传至arXiv
在此研究中,作者团队提出DocPedia,一个统一的高分辨率多模态文档大模型DocPedia。
在此研究中,作者用一种新的方式解决了现有模型不能解析高分辨文档图像的短板。
DocPedia分辨率可达2560×2560,而目前业内先进多模态大模型如LLaVA、MiniGPT-4等处理图像分辨率上限为336×336,无法解析高分辨率的文档图像。
那么,这款模型究竟表现如何,又使用了怎样的优化方式呢?
在这篇论文中,作者展示了DocPedia高分辨图文理解的示例。可以观察到DocPedia有能力理解指令内容,并从高分辨率的文档图像和自然场景图像中准确地提取相关的图文信息
比如这组图中,DocPedia轻松从图片中挖掘出了车牌号、电脑配置等文本信息,甚至手写文字也能准确判断。
结合图像中的文本信息,DocPedia还可以利用大模型推理能力,根据上下文分析问题。
DocPedia在读取完图片信息后,还会根据其丰富的世界知识库,回答图像中未展示的扩展内容
下表定量对比了现有的一些多模态大模型和DocPedia的关键信息抽取(KIE)和视觉问答(VQA)能力。
通过提升分辨率和采用有效的训练方法,我们可以看到DocPedia在各项测试基准上都取得了显著的提升
那么,DocPedia是如何实现这样的效果的呢呢?
DocPedia的训练分为两个阶段:预训练和微调。为了训练DocPedia,作者团队收集了包含各类文档的大量图文数据,并构建指令微调数据集。
在预训练阶段,大型语言模型将被冻结,而只优化视觉编码器的部分,以使其输出的token表征空间与大型语言模型保持一致
在这个阶段,作者团队提出主要训练DocPedia的感知能力,包括对文字和自然场景的感知
预训练任务包括文字检测、文字识别、端到端OCR、段落阅读、全文阅读,以及图像文字说明。
在微调阶段,大型语言模型解除冻结,进行端到端整体优化
作者团队提出了感知-理解联合训练策略:在原有的低阶感知任务基础上,增加了文档理解和场景图像两种高阶的偏语义理解任务
这样一种感知-理解联合训练策略,进一步提高了DocPedia的性能。
在分辨率问题的策略上,与现有方法不同,DocPedia从频域的角度出发去解决。
在处理高分辨率文档图像时,DocPedia会首先提取其DCT系数矩阵。这个矩阵可以在不损失原图像的图文信息的情况下,将其空间分辨率下采样8倍
经过这一步骤后,我们会使用级联的频域适配器(Frequency Adapter)将输入信号传递给视觉编码器(Vision Encoder),以进行更深层次的分辨率压缩和特征提取
透過此方法,一張2560×2560的圖像,其圖文資訊可以用1600個token表示。
此方法相較於直接將原始影像輸入到視覺編碼器(如Swin Transformer)中,token數量減少4倍。
最後,這些token與指令轉換而來的token進行序列維度拼接,輸入到大模型進行回答。
消融實驗的結果顯示,提高解析度和進行感知-理解聯合微調是提升DocPedia性能的兩個重要因素
下圖對比了DocPedia對於一張論文影像以及同一個指令,在不同輸入尺度下的回答。可以看到,當且僅當解析度提升至2560×2560時,DocPedia回答正確。
下圖則是對比了DocPedia對於同一張場景文字圖像以及同一個指令,在不同微調策略下模型的回答。
透過這個例子可以看出,經過感知-理解聯合微調的模型,能夠準確地進行文字辨識與語意問答
請點擊以下連結查看論文:https://arxiv.org/abs/2311.11810
以上是突破解析度極限:位元組聯合中科大揭示多模態文檔大模型的詳細內容。更多資訊請關注PHP中文網其他相關文章!