项目介绍:Llama-3.1-SuperNova-Lite
Llama-3.1-SuperNova-Lite是由Arcee.ai开发的一款8B参数模型,基于Llama-3.1-8B-Instruct架构构建。它是Llama-3.1-405B-Instruct大规模模型的精炼版本,通过离线提取405B参数变体的logits实现。这个8B的Llama-3.1-SuperNova在提供出色的指令跟随能力和特定领域的适应性方面保持了高性能。
模型训练
该模型使用了最先进的蒸馏管道和一个由EvolKit生成的指令数据集进行训练,确保了在不同任务中的准确性和效率。更多关于其训练过程的信息可以访问blog.arcee.ai。
性能与应用
Llama-3.1-SuperNova-Lite不仅在基准测试中表现优异,在实际应用中也同样出色。对于寻求高性能且资源需求较低的企业,它提供了一个紧凑而高效的解决方案,具备大规模模型的强大性能。
Open LLM Leaderboard评估结果
Llama-3.1-SuperNova-Lite在多个基准测试集上取得了令人瞩目的成绩,以下是其详细的评估结果:
指标 | 数值 |
---|---|
平均值 | 29.73 |
IFEval (0-Shot) | 80.17 |
BBH (3-Shot) | 31.57 |
MATH Lvl 5 (4-Shot) | 15.48 |
GPQA (0-shot) | 7.49 |
MuSR (0-shot) | 11.67 |
MMLU-PRO (5-shot) | 31.97 |
这些结果展示了Llama-3.1-SuperNova-Lite在文本生成任务上的广泛适应性与精准表现。对于更多详细结果,请访问Open LLM Leaderboard查看。