热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#AI预训练
TinyLlama - 3万亿token训练的小型1.1B参数语言模型
Github
开源项目
语言模型
模型评估
TinyLlama
AI预训练
TinyLlama是一个使用3万亿token预训练的1.1B参数语言模型。它与Llama 2架构兼容,可集成到现有Llama项目中。TinyLlama体积小巧,适用于计算和内存受限的场景。该项目开源了预训练和微调代码,具有高效的训练和推理性能。TinyLlama可应用于推测解码、边缘计算和实时对话等领域。
1
1
相关文章
TinyLlama:一个开源的小型语言模型
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号