热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#RetroMAE
RetroMAE - 创新的检索导向语言模型预训练技术
Github
开源项目
预训练模型
自然语言处理
BERT
信息检索
RetroMAE
RetroMAE是一种创新的检索导向语言模型预训练方法。通过掩码自编码器技术,该方法在MS MARCO和BEIR等基准测试中取得了显著性能提升。项目开源了预训练模型和微调工具,并提供了详细使用说明。RetroMAE在监督检索任务中表现卓越,同时展现出优秀的零样本迁移能力,为信息检索研究带来新的突破。项目提供了多个预训练模型,包括在维基百科和图书语料上预训练的基础版本,以及在MS MARCO数据集上微调的特定版本。研究人员可以通过Hugging Face轻松加载这些模型,进行实验或进一步改进。
1
1
相关文章
RetroMAE: 一种革新性的检索导向语言模型预训练方法
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号