在人工智能快速发展的今天,多模态大模型凭借其出色的视觉语言交互能力,受到了学术界和工业界的广泛关注。然而,在光学字符识别(OCR)这一关键领域,多模态大模型的表现却相对较弱。随着技术的不断进步,大型OCR模型的出现为这一问题带来了显著改善。本文将深入探讨大型OCR模型的构建过程,分析其在提升多模态大模型性能方面的重要作用,以及OCR领域扩展法则的研究成果。
OCR大模型在识别准确性和鲁棒性方面表现出色,已成为多模态大模型在OCR领域的重要工具,为相关应用的发展提供了强有力的支持。研究人员将OCR模型引入Qwen-VL-Chat多模态大模型框架,并在四项视觉问答(VQA)任务上进行了广泛评估。结果表明,OCR技术在处理challenging的视觉语言交互任务方面效果显著,不仅提升了多模态大模型的文本识别能力,还大幅提高了其在VQA任务上的准确率。
上图展示了引入OCR技术前后,多模态大模型在不同VQA任务上的性能对比。可以看出,OCR的引入带来了显著的性能提升。
为了更直观地展示OCR技术的作用,研究人员对STVQA和TextVQA任务进行了视觉分析。结果发现,在没有OCR辅助的情况下,Qwen-VL_Chat大模型在捕捉小文本或正确识别文本内容方面存在一定挑战。但引入OCR技术后,大模型能更准确地理解图像中的文本内容。例如,在STVQA任务中更有效地识别小文本,在TextVQA任务中将'Hongte'正确修正为'Honghe',将'57'修正为'22'。
在DocVQA任务中,研究人员发现,当处理包含大量文本信息的常见文档场景时,没有OCR辅助的大模型在识别和处理大量文本信息方面表现不佳。例如,当被问及图像中的广告标志时,模型可能无法准确找到目标或给出不存在的词语。而引入OCR后,模型能更准确地识别图像中的文本,从而提高了处理富文本信息时的准确性。
在自然语言处理(NLP)领域,模型规模、数据量、计算能力与模型性能之间的关系已经得到了广泛研究。然而,在OCR领域,这些'扩展法则'的探索仍处于起步阶段。为了填补这一空白,研究人员进行了全面的研究,深入分析了模型规模、数据量和计算能力与OCR性能之间的关系。
研究结果揭示,在控制其他影响因素不变的情况下,性能与模型规模和训练数据量之间存在平滑的指数关系。这一发现为OCR模型的设计和优化提供了重要的理论基础。
上图直观地展示了OCR模型性能与模型规模和数据量之间的关系。可以看出,随着模型规模和数据量的增加,OCR性能呈现出明显的提升趋势。
为了支持大型OCR模型的训练,研究人员创建了一个名为REBU-Syn的大规模数据集。该数据集包含600万个真实样本和1800万个合成样本。此外,研究团队还利用最新的生成技术,额外生成了60M的MJST+合成数据。