#Instruction Tuning

awesome-instruction-datasets - 多语言高质量开源数据集,促进NLP指令调优
Github开源项目LLMsAwesome Instruction DatasetsPrompt DatasetsRLHF DatasetsInstruction Tuning
该项目提供多语言和多任务的高质量开源指令调优数据集,方便研究人员和开发者轻松访问和利用这些资源。收录数据集包括人类生成、自我指令生成和混合生成的数据,以加速NLP领域的发展,支持如ChatGPT的指令跟随型大语言模型的训练。
Instruction-Tuning-Survey - 深入探讨大型语言模型的指令微调技术及应用
Github开源项目Large Language ModelsarXivInstruction TuningDatasetsModels
本文综述了大型语言模型的指令微调技术,包括方法学、数据集构建、模型训练及多模态和领域应用。探讨了影响指令微调效果的关键因素,如数据集规模和质量等,并指出了当前技术的局限性及未来改进方向。
awesome-instruction-learning - 指令学习文献与数据集综述
Github开源项目AISurveyInstruction TuningDatasetsAwesome Instruction Learning
本项目提供了关于指令调优和跟随的优秀阅读列表,包括最新的论文、数据集和详细的分析。这份资源对研究人员和技术从业者非常有用,涵盖从理论到应用的各个方面。通过全面概述和多样分类,用户可以深入了解当前指令学习的趋势和挑战。欢迎任何贡献和建议,共同丰富和改进这一开源项目。
instruction-datasets - 大语言模型指令微调数据集汇总
Github开源项目大语言模型多语言数据集NLPInstruction Tuning
该项目整理了大语言模型指令微调所需的多种数据集,包括金标准、银标准/LM生成和偏好数据集。内容涵盖多语言和多模态任务,提供指令-响应对和人类偏好评分等资源。这些数据集有助于提升模型的指令跟随、对话和任务执行能力,为NLP研究和开发提供重要参考。