热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Verticalization Distillation
Awesome-Knowledge-Distillation-of-LLMs - 大语言模型知识蒸馏技术综述与研究进展
Github
开源项目
Large Language Models
Knowledge Distillation
KD Algorithms
Skill Distillation
Verticalization Distillation
该综述介绍了大语言模型(LLMs)中的知识蒸馏(KD)技术,探讨如何将GPT-4等LLM的功能转移到LLaMA和Mistral等开源模型中,并深入分析数据增强在其中的作用。此外,文章分类讨论了知识抽取和蒸馏算法的重要性及其在各领域的应用。项目定期更新相关论文和研究进展,可通过关注仓库获取最新信息。
1
1
相关文章
Awesome-Knowledge-Distillation-of-LLMs学习资料汇总-大语言模型知识蒸馏项目简介
2 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号