热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#毒性评论
toxic-comment-model - 使用DistilBERT进行在线毒性评论分类的模型与偏见分析
毒性评论
Huggingface
模型
开源项目
Github
偏差
培训数据
DistilBERT
该模型基于DistilBERT进行精调,专为在线毒性评论分类设计。尽管总体表现出色,但在识别某些身份群体时表现出偏见,如穆斯林和犹太人。通过示例代码能快速应用此模型,其在10000条测试数据中取得94%的准确率,但f1-score为0.59。更多信息及训练代码可在指定GitHub仓库获取。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号