Project Icon

LLM4Annotation

大型语言模型在数据标注中的应用及研究进展

LLM4Annotation项目概述了大型语言模型在数据标注领域的应用研究。该项目涵盖LLM标注方法、质量评估及学习利用等方面,探讨了LLM提升数据标注效率和质量的潜力。这份综述为相关研究人员提供了系统性参考,展示了LLM在数据标注领域的最新进展。

用于数据标注的大型语言模型:综述

欢迎PR Awesome Stars

  • 这是一个精选的关于大型语言模型用于标注的论文列表

    由Zhen Tan (ztan36@asu.edu)和Alimohammad Beigi (abeigi@asu.edu)维护。

  • 如果你想添加新条目,请以相同格式提交PR。

  • 这个列表作为以下综述的补充。

[用于数据标注的大型语言模型:综述]

如果您觉得这个仓库有帮助,我们将非常感谢您引用我们的综述。

@misc{tan2024large,
      title={Large Language Models for Data Annotation: A Survey}, 
      author={Zhen Tan and Alimohammad Beigi and Song Wang and Ruocheng Guo and Amrita Bhattacharjee and Bohan Jiang and Mansooreh Karami and Jundong Li and Lu Cheng and Huan Liu},
      year={2024},
      eprint={2402.13446},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}

基于大型语言模型的数据标注

手动设计的提示

  • [EACL 2024] GPT是多语言序列生成任务的标注者。[pdf] [代码]

  • [arXiv 2023] AnnoLLM:让大型语言模型成为更好的众包标注者。[pdf]

  • [arXiv 2023] RAFT:使用奖励排序的微调方法对生成式基础模型进行对齐。[pdf]

  • [arXiv 2023] 小模型作为大型语言模型的有价值插件。[pdf] [代码]

  • [arXiv 2022] 循环中的语言模型:将提示融入弱监督。[pdf]

  • [EMNLP 2022] ZeroGen:通过数据集生成实现高效零样本学习。[pdf] [代码]

  • [NAACL-HLT 2022] 学习检索用于上下文学习的提示。[pdf] [代码]

  • [EMNLP 2021] 受约束的语言模型产生少样本语义解析器。[pdf] [代码]

通过成对反馈进行对齐

  • [ACL 2023] 为什么GPT能进行上下文学习?语言模型秘密地作为元优化器执行梯度下降。[pdf] [代码]

  • [arXiv 2023] 直接偏好优化:你的语言模型秘密地是一个奖励模型。[pdf]

  • [NeurIPS 2022] 微调语言模型以在具有不同偏好的人群中找到一致性。[pdf]

  • [arXiv 2022] 通过有针对性的人类判断改善对话代理的对齐。[pdf]

  • [arXiv 2022] 教导语言模型用经验证的引用支持答案。[pdf] [数据]

  • [NeurIPS 2020] 从人类反馈中学习总结。[pdf] [代码]

  • [arXiv 2019] 从人类偏好中微调语言模型。[pdf] [代码]

评估大型语言模型生成的标注

评估大型语言模型生成的标注

  • [EACL 2024] GPT是多语言序列生成任务的标注者。[pdf] [代码]

  • [arXiv 2023] AnnoLLM:让大型语言模型成为更好的众包标注者。[pdf]

  • [arXiv 2023] 开源大型语言模型在文本标注任务中表现优于众包工人并接近ChatGPT。[pdf]

  • [NAACL 2022] LMTurk:将少样本学习器作为语言模型即服务框架中的众包工人。[pdf] [代码]

  • [EMNLP 2022] 大型语言模型是少样本临床信息提取器。[pdf] [数据]

  • [arXiv 2022] 非自然指令:几乎无需人工劳动即可调整语言模型。[pdf] [代码]

  • [arXiv 2020] 图灵测试:语言模型能理解指令吗?[pdf]

通过主动学习进行数据选择

  • [EMNLP 2023] FreeAL:在大型语言模型时代实现无人主动学习。[pdf] [代码]

  • [EMNLP 2023] 大型语言模型上下文学习的主动学习原则。[pdf]

  • [IUI 2023] ScatterShot:用于文本转换的交互式上下文示例筛选。[pdf] [代码]

  • [ICML 2023] 偏好分类:通过辅助偏好学习改进文本分类器。[pdf] [代码]

  • [arXiv 2023] 大型语言模型作为标注者:以最小成本提高NLP模型的泛化能力。[pdf]

  • [arXiv 2022] 主动学习帮助预训练模型学习预期任务。[pdf] [代码]

  • [EACL 2021] 使用深度预训练模型和贝叶斯不确定性估计进行序列标注的主动学习。[pdf]

使用大型语言模型生成的标注进行学习

目标领域推理:直接利用标注

  • [ECIR 2024] 大型语言模型是推荐系统的零样本排序器。[pdf] [代码]

  • [arXiv 2023] 因果推理和大型语言模型:为因果关系开辟新领域。[pdf]

  • [ACL 2022] 一种无需真实标签的信息论提示工程方法。[pdf] [代码]

  • [TMLR 2022] 大型语言模型的涌现能力。[pdf]

  • [NeurIPS 2022] 大型语言模型是零样本推理器。[pdf]

  • [arXiv 2022] 通过大型语言模型的描述进行视觉分类。[pdf]

  • [PMLR 2021] 从自然语言监督中学习可迁移的视觉模型。[pdf] [代码]

  • [EMNLP 2019] 语言模型作为知识库?[pdf] [代码]

知识蒸馏:连接大型语言模型和特定任务模型

  • [EACL 2024] GPT模型是多语言序列生成任务的标注器。[pdf] [代码]

  • [EMNLP 2023] ChatGPT在搜索中表现如何?调查大型语言模型作为重排序代理。[pdf] [代码]

  • [ACL 2023] 逐步蒸馏!用更少的训练数据和更小的模型规模超越更大的语言模型。[pdf] [代码]

  • [ACL 2023] GPT4All:通过从GPT-3.5-Turbo大规模数据蒸馏训练助手型聊天机器人。[pdf] [代码]

  • [ACL 2023] GKD:一个用于大规模预训练语言模型的通用知识蒸馏框架。[pdf] [代码]

  • [EMNLP 2023] Lion:专有大型语言模型的对抗性蒸馏。[pdf] [代码]

  • [arXiv 2023] 将较小的语言模型专门化用于多步推理。[pdf]

  • [arXiv 2023] 大型语言模型的知识蒸馏。[pdf] [代码]

  • [arXiv 2023] 为生物医学知识提取蒸馏大型语言模型:以不良药物事件为例。[pdf]

  • [arXiv 2023] 通过大型语言模型的知识蒸馏进行网页内容过滤。[pdf]

  • [ICLR 2022] 大型语言模型的知识蒸馏。[pdf] [代码]

  • [arXiv 2022] 教小型语言模型进行推理。[pdf]

利用大型语言模型标注进行微调和提示

上下文学习(ICL)

  • [EMNLP 2023] 大型语言模型上下文学习的主动学习原则。[pdf]

  • [ACL 2023] 合成提示:为大型语言模型生成思维链演示。[pdf]

  • [ICLR 2022] 微调的语言模型是零样本学习器。[pdf] [代码]

  • [ICLR 2022] 选择性标注使语言模型成为更好的少样本学习器。[pdf] [代码]

  • [NAACL 2022] 通过自监督训练改进上下文少样本学习。[pdf]

  • [arXiv 2022] 指令归纳:从少量示例到自然语言任务描述。[pdf] [代码]

  • [NeurIPS 2020] 语言模型是少样本学习器。[pdf]

思维链提示(CoT)

  • [ICLR 2023] 大型语言模型中的自动思维链提示。[pdf] [代码]

  • [ACL 2023] SCOTT:自一致思维链蒸馏。[pdf]

  • [arXiv 2023] 将较小的语言模型专门化用于多步推理。[pdf]

  • [NeurIPS 2022] 思维链提示引发大型语言模型的推理能力。[pdf]

  • [NeurIPS 2022] 大型语言模型是零样本推理器。[pdf]

  • [arXiv 2022] 语言模型中的理由增强集成。[pdf]

  • [ACL 2020] 用于评估和开发英语数学应用题求解器的多样化语料库。[pdf] [代码]

  • [NAACL 2019] CommonsenseQA:针对常识知识的问答挑战。[pdf] [代码]

指令微调(IT)

  • [ACL 2023] 通过多任务微调实现跨语言泛化。[pdf] [代码]

  • [ACL 2023] SELF-INSTRUCT:通过自生成指令对齐语言模型。[pdf] [代码]

  • [ACL 2023] 大型语言模型能否替代人工评估?[pdf]

  • [arXiv 2023] LLaMA:开放高效的基础语言模型。[pdf][代码]

  • [arXiv 2022] 教语言模型用经验证的引用支持答案。[pdf] [数据]

  • [arXiv 2022] 扩展指令微调的语言模型。[pdf] [代码]

  • [EMNLP 2022] 超自然指令:通过1600多个NLP任务的声明性指令实现泛化。[pdf] [代码]

  • [NeurIPS 2020] 语言模型是少样本学习器。[pdf]

  • Stanford alpaca:一个遵循指令的llama模型。[HTML] [代码]

对齐微调(AT)

  • [PMLR 2023] 利用人类偏好预训练语言模型。[pdf][代码]

  • [ICLR 2023] 使用隐式语言Q学习进行自然语言生成的离线强化学习。[pdf] [代码]

  • [arXiv 2023] 后见之明链使语言模型与反馈保持一致。[pdf][代码]

  • [arXiv 2023] GPT-4技术报告。[pdf]

  • [arXiv 2023] Llama 2:开放基础和微调聊天模型。[pdf] [代码]

  • [arXiv 2023] RLAIF:利用AI反馈扩展人类反馈的强化学习。[pdf]

  • [NeurIPS 2022] 通过人类反馈训练语言模型遵循指令。[pdf]

  • [arXiv 2022] 教导语言模型使用经验证的引用来支持答案。[pdf] [数据]

  • [arXiv 2019] 基于人类偏好的语言模型微调。[pdf][代码]

  • [arXiv 2019] CTRL:用于可控生成的条件转换器语言模型。[pdf][代码]

  • [NeurIPS 2017] 基于人类偏好的深度强化学习。[pdf]

综述

  • [ACM 2023] 预训练、提示和预测:自然语言处理中提示方法的系统综述。[pdf]

  • [arXiv 2023] 视觉-语言基础模型提示工程的系统综述。[pdf] [仓库]

  • [arXiv 2022] 大型语言模型综述。[pdf] [仓库]

  • [arXiv 2022] 上下文学习综述。[pdf]

  • [arXiv 2022] 指令跟随的全面综述。[pdf] [仓库]

工具包

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号