Tabular-LLM:增强大语言模型处理表格数据的能力
随着ChatGPT等大语言模型(LLM)的兴起,其在处理自然语言任务方面展现出了惊人的能力。然而,在处理结构化的表格数据时,这些模型仍然存在一些局限性。为了探索如何增强LLM处理表格数据的能力,研究者们提出了Tabular-LLM项目。该项目旨在收集和整理开源的表格智能任务数据集,将原始数据整理为指令微调格式,并用于微调LLM,最终构建出专门面向表格智能任务的大型语言模型。
项目背景与动机
尽管ChatGPT等LLM已经具备了一定的表格处理能力,但它们仍然存在以下局限:
-
主要支持用Markdown格式表示的简单表格,对其他类型表格(如包含合并单元格的复杂表格)支持较弱。
-
在各项表格智能任务中的能力有待进一步增强,特别是在处理复杂的数值推理问题时容易出错。
-
与表格处理相关的训练数据并未开源,缺乏统一的整理。
基于这些考虑,Tabular-LLM项目提出了以下核心计划:
-
探索不同类型表格的表示方法,以便更好地处理复杂表格结构。
-
收集并整理涵盖多种类型表格、多种表格智能任务的数据。
-
开源表格智能LLM并进行测试分析,为研究者提供宝贵经验。
表格的表示方法
为了让LLM理解表格数据,需要将半结构化的表格转化为文本序列。项目探讨了多种表格表示方法,包括:
-
启发式文本序列格式:如TAPEX模型采用的方法。
-
Markdown格式:ChatGPT等模型目前采用的主要方法。
-
HTML格式:可以表示更复杂的表格结构,如合并单元格。
-
Latex格式:常用于学术论文中表示表格。
经过权衡,项目决定优先使用Markdown格式表示不包含合并单元格的表格,使用HTML格式表示包含合并单元格的表格。对于难以转为HTML格式的数据,则将合并单元格拆分为多个相同的子单元格,再使用Markdown格式表示。
数据整理与开源
项目收集了多个表格智能任务的数据集,包括表格问答、表格事实验证等,并将原始数据整理为统一的指令微调格式。整理后的数据以JSON格式提供下载,包括训练集和测试集。
此外,项目还开源了基于不同数据进行微调得到的LoRA权重,研究者可以直接下载使用这些权重来测试模型效果。
未来展望
Tabular-LLM项目为增强LLM处理表格数据的能力提供了宝贵的数据资源和研究基础。随着项目的推进,研究者们希望能够:
-
探索更多表格表示方法,以适应不同类型的表格结构。
-
收集更多样化的表格智能任务数据集,扩大训练数据的规模和覆盖范围。
-
开发针对特定领域或特定软件的表格智能LLM,如配合Excel使用的LLM。
-
进行更深入的实验分析,总结提高LLM表格处理能力的有效方法。
通过这些努力,Tabular-LLM项目有望推动LLM在处理结构化数据方面的进步,为学术研究和实际应用提供有力支持。研究者们也欢迎更多人加入项目,共同探索LLM与表格数据处理的未来发展方向。