热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#低资源训练
LongQLoRA - 大语言模型上下文长度高效扩展的创新方法
LongQLoRA
大语言模型
上下文长度扩展
低资源训练
性能评估
Github
开源项目
LongQLoRA是一种扩展大语言模型上下文长度的方法,可在单个32GB V100 GPU上将LLaMA2模型的上下文长度从4096扩展到8192。该方法在PG19和Proof-pile数据集上表现优异,仅需1000步微调即可达到接近MPT-7B-8K的性能。项目还提供了预训练数据集、指令微调数据集以及扩展上下文长度的模型。
1
1
相关文章
LongQLoRA: 高效扩展大型语言模型上下文长度的创新方法
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号