热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#Toxic Comment Classification
detoxify - 基于Pytorch Lightning和Transformers的多语言有害评论分类模型
Detoxify
Pytorch Lightning
Transformers
Toxic Comment Classification
Jigsaw
Unintended Bias in Toxicity Classification
Multilingual
Github
开源项目
Detoxify项目利用Pytorch Lightning和Transformers构建模型,识别和分类包含威胁、辱骂和身份攻击的有害评论。这些模型支持多语言操作,致力于减少无意中的偏见。项目在多次Jigsaw挑战赛中表现出色,提供高效的有害内容检测方案,适合用于研究和内容审核工作,帮助更快速地标记有害内容和提高用户体验。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号