热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#RoBERTa
LoRA
LoRA通过低秩分解矩阵实现大型语言模型的低秩适配,减少了训练参数数量,实现高效的任务切换和存储节省。它在GLUE基准测试中的表现与完全微调相当或更好,同时显著降低了参数需求。LoRA支持RoBERTa、DeBERTa和GPT-2等模型,并已集成到Hugging Face的PEFT库中,提供了便捷的适配解决方案。
awesome-llms-fine-tuning
本页面汇总了微调大语言模型(如GPT、BERT、RoBERTa)的全面资源,适用于特定任务和领域的需求。包含教程、论文、工具、框架和最佳实践,为研究人员、数据科学家和机器学习从业者提供宝贵的指导,提升模型表现,优化工作流程。
SpanMarkerNER
SpanMarker是一个基于Transformer库的命名实体识别框架,支持BERT、RoBERTa和ELECTRA等编码器。框架提供模型加载、保存、超参数优化、日志记录、检查点、回调、混合精度训练和8位推理等功能。用户可以方便地使用预训练模型,并通过免费API进行快速原型开发和部署。
BERTweet
BERTweet是首个专为英语推文预训练的公共语言模型,基于RoBERTa预训练程序,使用850M条推文数据进行训练,包含普通推文和疫情相关推文。BERTweet提供多种预训练模型,能够无缝集成于transformers和fairseq框架,支持情感分析、命名实体识别等自然语言处理任务,为研究和应用提供有力支持。
相关文章
Microsoft/TrOCR-识别手写文字的利器,让AI在教育领域更进一步
2 个月前
LoRA: 大型语言模型的低秩适应技术
1 个月前
大型语言模型微调技术全面指南
1 个月前
LoRA入门指南 - 低秩适配大型语言模型的高效微调方法
18 天前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号