Awesome-instruction-tuning 学习资料汇总 - 指令微调数据集、模型和论文集锦
Awesome-instruction-tuning 是 GitHub 上一个精心策划的开源指令微调资源列表,包含了大量指令微调相关的数据集、模型、论文和代码库。本文将为您详细介绍该项目的核心内容,帮助您快速了解和学习指令微调技术。
1. 数据集和模型
该项目列出了两类主要的指令微调数据集:
1.1 从传统NLP任务修改而来的数据集
这类数据集是在传统NLP任务的基础上修改而成的,主要包括:
- UnifiedQA: 46个任务,75万个实例
- CrossFit: 159个任务,7100万个实例
- Natural Instructions v1.0: 61个任务,62万个实例
- Flan 2021: 62个任务,440万个实例
- P3: 62个任务,1200万个实例
- MetalCL: 142个任务,350万个实例
- ExMix: 107个任务,50万个实例
- Super-Natural Instructions: 1613个任务,500万个实例
- GLM: 77个任务,1200万个实例
- Flan 2022: 1836个任务,1500万个实例
- xP3: 71个任务,8100万个实例
- Unnatural Instructions: 117个任务,6.4万个实例
1.2 由大语言模型生成的数据集
这类数据集是由大语言模型直接生成的,主要包括:
- GPT-3 Self-Instruct: 8.2万个实例
- Alpaca: 5.2万个实例
- Chinese-Vicuna: 100万个实例
- Alpaca-CoT: 数量未知
- Dolly: 5.2万个实例
- Guanaco: 53.4万个实例
- Chinese-LLaMA-Alpaca: 200万个实例
- ColossalChat: 10.4万个实例
- Luotuo: 5.2万个实例
- Cerebras-lora-alpaca: 5.2万个实例
2. 多语言工具
该项目还提供了一个基于Helsinki-NLP的开源翻译工具,可以将英语数据集免费翻译成100多种语言。虽然翻译质量可能不如高质量人工翻译,但可以作为一个低成本的替代方案。
使用方法:
python translator.py model_name source_data_path
例如:
python translator.py Helsinki-NLP/opus-mt-en-zh alpaca_data.json
3. 相关论文
该项目还整理了指令微调领域的重要论文,按时间顺序包括:
- Finetuned language models are zero-shot learners (2021.9)
- Multitask Prompted Training Enables Zero-Shot Task Generalization (2021.10)
- Training language models to follow instructions with human feedback (2022.3)
- Super-NaturalInstructions: Generalization via Declarative Instructions on 1600+ NLP Tasks (2022.4)
- Unsupervised Cross-Task Generalization via Retrieval Augmentation (2022.4)
- Instruction Induction: From Few Examples to Natural Language Task Descriptions (2022.5)
- Scaling Instruction-Finetuned Language Models (2022.10)
- Guess the Instruction! Flipped Learning Makes Language Models Stronger Zero-Shot Learners (2022.10)
- Unnatural Instructions: Tuning Language Models with (Almost) No Human Labor (2022.12)
- Improving Cross-task Generalization of Unified Table-to-text Models with Compositional Task Configurations (2022.12)
- Self-Instruct: Aligning Language Model with Self Generated Instructions (2022.12)
- MultiInstruct: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning (2022.12)
- The Flan Collection: Designing Data and Methods for Effective Instruction Tuning (2023.1)
- In-Context Instruction Learning (2023.2)
4. 相关代码库
最后,该项目还列出了一些相关的代码库,包括:
- awesome-instruction-learning
- awesome-instruction-dataset
- ICL_PaperList
- prompt-in-context-learning
- LM-reasoning
- LLM-Reasoning-Papers
- Chain-of-ThoughtsPapers
- OpenICL
通过这些资源,您可以全面了解指令微调技术的最新进展,并快速上手实践。希望本文能为您的学习和研究提供帮助。如果您对指令微调感兴趣,不妨深入阅读原项目并尝试使用这些资源。🚀💻🤖