热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LLaMa 2
llama2_xs_460M_experimental - 了解LLaMA与LLaMa 2的小型实验版本及其精简模型参数
Github
开源项目
开源
大模型
模型
MMLU
Huggingface
Tokenization
LLaMa 2
项目呈现Meta AI的LLaMA与LLaMa 2开源重现版本,并采用缩小的模型参数:llama1_s为1.8B,llama2_xs为460M。训练基于RedPajama数据集,使用GPT2Tokenizer分词,支持通过HuggingFace Transformers库直接加载以及文本生成。模型在MMLU任务中表现评估,其中llama2_xs_460M在0-shot和5-shot中分别得21.13和26.39的分数。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号