热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LLM-Adapters
LLM-Adapters:参数高效微调大语言模型的适配器家族
2 个月前
LLM-Adapters是一个易用的框架,集成了多种适配器到大语言模型中,可以执行基于适配器的参数高效微调(PEFT)方法,用于不同的下游任务。该框架包含了最先进的开源大语言模型和广泛使用的适配器,为大语言模型的高效微调提供了新的解决方案。
LLM-Adapters
HuggingFace
LoRA
GPT-J
PEFT
Github
开源项目
2 个月前
相关项目
LLM-Adapters
LLM-Adapters 是一个集成了多种适配器的框架,用于实现大语言模型的参数高效微调。支持 LLaMa、OPT、BLOOM 和 GPT-J 等开源大语言模型,以及 Bottleneck、Parallel 和 LoRA 等适配器。这个框架为研究人员和开发者提供了强大的工具,可应用于各种任务的适配器方法。最新更新包括 commonsense170k 数据集,LLaMA-13B-Parallel 模型在多个常识基准测试中表现优异,超越了 ChatGPT。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号