热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Twice-KoSOLAR-16.1B-test
Twice-KoSOLAR-16.1B-test - 使用深度扩展技术优化SOLAR语言模型性能
深度上采样
Github
开源项目
自然语言处理
Twice-KoSOLAR-16.1B-test
模型
性能评估
Huggingface
合并技术
本页面介绍了Depth-Up-Scaling方法如何提升大规模语言模型(LLM)的性能,通过合并Mistral 7B模型权重与持续预训练,SOLAR-10.7B模型在多项自然语言处理任务中表现优异,超越某些30B参数模型。本文比较了不同模型性能,展示了SOLAR-10.7B在多样化调优场景中的适应性和鲁棒性。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号