#Instruction Tuning
awesome-instruction-datasets学习资源汇总 - 训练ChatGPT等大模型的指令数据集
2 个月前
深入解析指令学习:从概念到应用的全面综述
3 个月前
指令微调:大语言模型能力提升的关键技术
3 个月前
Awesome Instruction Datasets: 探索指令微调数据集的宝库
3 个月前
相关项目
awesome-instruction-datasets
该项目提供多语言和多任务的高质量开源指令调优数据集,方便研究人员和开发者轻松访问和利用这些资源。收录数据集包括人类生成、自我指令生成和混合生成的数据,以加速NLP领域的发展,支持如ChatGPT的指令跟随型大语言模型的训练。
Instruction-Tuning-Survey
本文综述了大型语言模型的指令微调技术,包括方法学、数据集构建、模型训练及多模态和领域应用。探讨了影响指令微调效果的关键因素,如数据集规模和质量等,并指出了当前技术的局限性及未来改进方向。
awesome-instruction-learning
本项目提供了关于指令调优和跟随的优秀阅读列表,包括最新的论文、数据集和详细的分析。这份资源对研究人员和技术从业者非常有用,涵盖从理论到应用的各个方面。通过全面概述和多样分类,用户可以深入了解当前指令学习的趋势和挑战。欢迎任何贡献和建议,共同丰富和改进这一开源项目。
instruction-datasets
该项目整理了大语言模型指令微调所需的多种数据集,包括金标准、银标准/LM生成和偏好数据集。内容涵盖多语言和多模态任务,提供指令-响应对和人类偏好评分等资源。这些数据集有助于提升模型的指令跟随、对话和任务执行能力,为NLP研究和开发提供重要参考。