热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LoftQ
LoftQ - 大型语言模型低资源量化微调新方法
LoftQ
量化
大语言模型
微调
LoRA
Github
开源项目
LoftQ是一种为大型语言模型设计的量化微调方法。它通过寻找最佳的量化LoRA初始化,实现有限GPU资源下的高效模型微调。LoftQ支持LLAMA、Falcon、Mistral等主流模型,提供相关工具和示例代码。在WikiText-2和GSM8K等任务上,LoftQ展现出优秀性能,为低资源环境中的LLM应用开发创造了新可能。
1
1
相关文章
LoftQ: 一种革新性的大语言模型量化与微调方法
3 个月前
LoftQ: 提升大语言模型量化微调效果的创新方法
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号