
tapas-tiny-finetuned-wtq
TAPAS模型为WikiTable问题提供精准问答解决方案
TAPAS模型经过在WikiTable Questions数据集上的精细调优,提供多种版本以满足不同需求。利用相对和绝对位置嵌入选择,在表格问答任务中表现优异。模型通过掩码语言模型和中间预训练增强数值推理能力,并通过添加单元选择头和聚合头微调SQA、WikiSQL和WTQ数据集以提升问答性能。
项目介绍
tapas-tiny-finetuned-wtq
是一个基于 WikiTable Questions (WTQ) 微调的 TAPAS 微模型,该模型独特地结合了创新的表格问答功能。
模型背景
该模型有两个版本。默认版本是 tapas_wtq_wikisql_sqa_inter_masklm_tiny_reset
,此版本结合了相对位置嵌入,即在每个表格单元格处重置位置索引。另一个版本是 no_reset
,它使用绝对位置嵌入。
Tapas 模型本质上是一种类似于 BERT 的转化器模型,在大规模的英文数据集上以自监督的方式预训练。它不需要人为标注,而是通过自动化过程生成输入和标签,进行两种预训练目标:
- 掩蔽语言模型(MLM):随机掩蔽输入中的 15% 单词,并要求模型预测这些被掩蔽的单词。
- 中间预训练:创建大量合成的训练数据样本,训练模型判断句子是否由表格内容支持或否定,促进数值推理能力。
使用用途
此模型主要用于针对表格的问题回答。用户可以通过 HuggingFace 平台上的文档获取相关使用代码示例。
训练过程
在训练过程中,文本会先被小写处理,并以 WordPiece 和大小为 30,000 的词汇表进行标记化。输入模型的格式为 [CLS] 问题 [SEP] 扁平化的表格 [SEP]
。
模型微调使用 32 个 Cloud TPU v3 核心运行 50,000 步,每次处理 512 长度的序列,批量大小为 512。该过程大约需要十小时。优化器使用 Adam,学习率为 1.93581e-5,热身比率为 0.128960。微调还引入了偏移量,使模型只选择同列单元格,这在 TapasConfig
的 select_one_column
参数中得到体现。
结果表现
模型在不同设置下表现略有差异,具有重置功能的 TINY
版本在开发集上的准确率为 0.1039,而不重置版本为 0.0823。尽管它们的准确率较低,但在轻量级模型中,仍显示了其模型潜力。
相关文献
模型与其训练方法在多篇科学论文中被详细描述,包括 2020 年由 Jonathan Herzig 等人发表的研究 Tapas 弱监督表格解析的工作,以及 Julian Martin Eisenschlos 等人关于表格中间预训练的研究。
通过理解和利用 tapas-tiny-finetuned-wtq
,研究人员和开发者能够更好地进行表格数据的处理和问答任务的实现。
编辑推荐精选


Manus
全面超越基准的 AI Agent助手
Manus 是一款通用人工智能代理平台,能够 将您的创意和想法迅速转化为实际成果。无论是定制旅行规划、深入的数据分析,还是教育支持与商业决策,Manus 都能高效整合信息,提供精准解决方案。它以直观的交互体验和领先的技术,为用户开启了一个智慧驱动、轻松高效的新时代,让每个灵感都能得到完美落地。


飞书知识问答
飞书官方推出的AI知识库 上传word pdf即可部署AI私有知识库
基于DeepSeek R1大模型构建的知识管理系统,支持PDF、Word、PPT等常见文档格式解析,实现云端与本地数据的双向同步。系统具备实时网络检索能力,可自动关联外部信息源,通过语义理解技术处理结构化与非结构化数据。免费版本提供基础知识库搭建功能,适用于企业文档管理和个人学习资料整理场景。


Trae
字节跳动发布的AI编程神器IDE
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。