Platypus2-7B 项目介绍
Platypus2-7B 是一种基于 LLaMA2-7B 转换器架构的指令微调模型,由 Cole Hunter 和 Ariel Lee 训练。该模型特别适合处理英语语言任务,且其基础权重以非商业创作共用许可证(CC BY-NC-4.0)发布。
模型详情
Platypus2-7B 是一种自回归语言模型,采用 LLaMA2 转换器架构。此模型在一个名为 garage-bAInd/Open-Platypus
的数据集上进行训练,该数据集主要包含 STEM 和逻辑相关的数据。模型微调过程使用了 LoRA 技术,通过一个容量为 80GB 的 A100 GPU 进行训练。
提示模板
模型的输入格式为:
### Instruction:
<prompt> (去掉 <>)
### Response:
训练过程
训练 Platypus2-7B 使用的主要技术是 LoRA 微调,这是一种低秩适应技术。详细的训练信息及推理步骤可以在该模型的 GitHub 仓库中找到。
评价与测试
使用了 LM Evaluation Harness 来评估模型性能,所有测试在一个容量为 80GB 的 A100 GPU 上进行。主要的测试任务包括 ARC、HellaSwag、MMLU 和 TruthfulQA 等,模型在这些任务中的表现如下:
- ARC (25-shot): 55.2
- HellaSwag (10-shot): 78.84
- MMLU (5-shot): 49.83
- TruthfulQA (0-shot): 40.64
- Winogrande (5-shot): 73.48
- GSM8K (5-shot): 1.82
- DROP (3-shot): 20.02
这些结果展示了 Platypus2-7B 在应对不同语言任务时的能力和局限。
局限性与潜在偏见
需要注意的是,LLaMA2 及其微调变体是相对新的技术,可能存在使用风险。尽管模型经过测试,目前只在英语环境下进行,且测试不可能涵盖所有可能场景。因此,开发者在部署任何 LLaMA2 变体应用程序前,需要进行适当的安全测试和调试,以确保模型性能满足特定应用需求。
更多关于负责任使用的指南可以在此处查阅。
参考文献
项目相关的详细信息及技术细节可通过查阅 Platypus 的相关论文和其他学术资料获取。有关项目作者及引用信息:
- Ariel N. Lee 和 Cole J. Hunter, 以及 Nataniel Ruiz 的论文 Platypus: Quick, Cheap, and Powerful Refinement of LLMs。
- Hugo Touvron 等人的论文 Llama 2: Open Foundation and Fine-Tuned Chat Models。
- Edward J Hu 等人的论文 LoRA: Low-Rank Adaptation of Large Language Models。
交流平台
项目更多的讨论和交流可以在 Platypus 官方网页和相关的 GitHub 仓库中进行。更多的测试细节和评估结果可以在公开的 LLM 排行榜中查阅。