热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#StableLM-3B-4E1T
stablelm-3b-4e1t - StableLM开源语言模型在1万亿token数据上训练达到30亿参数规模
大语言模型
开源模型
开源项目
StableLM-3B-4E1T
模型
人工智能
Huggingface
文本生成
Github
StableLM-3B-4E1T是一个开源语言模型,通过在Falcon RefinedWeb和RedPajama-Data等数据集上训练4轮获得,总计处理1万亿tokens数据。模型采用LayerNorm归一化和Rotary位置编码技术,支持Flash Attention 2优化。在HellaSwag和Winogrande任务评测中分别达到75.94%和71.19%的准确率,展现出良好的语言理解能力。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号