热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Mistral-NeMo
Mistral-NeMo-Minitron-8B-Base - 高效压缩的大规模语言模型适用于多种自然语言生成任务
人工智能
模型压缩
模型
Github
开源项目
大语言模型
Mistral-NeMo
自然语言处理
Huggingface
Mistral-NeMo-Minitron-8B-Base是一个经过剪枝和蒸馏的基础文本生成模型。它采用4096维嵌入、32个注意力头、11520维MLP中间层和40层结构,结合分组查询注意力和旋转位置编码技术。该模型在MMLU等基准测试中表现优异,适用于多种自然语言生成任务。支持8k字符输入,可通过Transformers库轻松使用。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号