热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#roberta-base-squad2-distilled
roberta-base-squad2-distilled - 蒸馏版RoBERTa模型在SQuAD 2.0达到84% F1分数
roberta-base-squad2-distilled
Github
深度学习
模型
自然语言处理
机器学习
开源项目
Huggingface
问答系统
基于RoBERTa-base架构开发的问答模型,通过知识蒸馏技术从roberta-large-squad2模型中提取核心能力。经SQuAD 2.0数据集训练后,在验证集上取得84.01 F1分数和80.86精确匹配分数。该模型支持Haystack框架集成,可用于构建实用的问答系统。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号