热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#平行语料库
roberta_toxicity_classifier - RoBERTa模型提供准确的有害评论分类功能
平行语料库
有毒评论分类
Jigsaw
RoBERTa
自然语言处理
模型
Github
开源项目
Huggingface
本项目基于RoBERTa开发了一个有害评论分类模型。该模型在约200万条Jigsaw数据集样本上进行微调,测试集表现优异,AUC-ROC达0.98,F1分数为0.76。模型易于集成到Python项目中,可用于文本有害内容检测。项目提供使用说明和引用信息,便于研究人员和开发者在此领域深入探索。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号