#有毒评论分类
roberta_toxicity_classifier - RoBERTa模型提供准确的有害评论分类功能
平行语料库有毒评论分类JigsawRoBERTa自然语言处理模型Github开源项目Huggingface
本项目基于RoBERTa开发了一个有害评论分类模型。该模型在约200万条Jigsaw数据集样本上进行微调,测试集表现优异,AUC-ROC达0.98,F1分数为0.76。模型易于集成到Python项目中,可用于文本有害内容检测。项目提供使用说明和引用信息,便于研究人员和开发者在此领域深入探索。
unbiased-toxic-roberta - RoBERTa模型识别多语言有毒评论并减少偏见
模型评估Huggingface模型Detoxify机器学习有毒评论分类Github开源项目自然语言处理
该项目开发了基于RoBERTa的多语言模型,用于检测互联网上的有毒评论。模型在Jigsaw三个挑战数据集上训练,可识别威胁、侮辱和仇恨言论等多种有毒内容。它支持多种语言,易于使用,适用于研究和内容审核。项目还探讨了模型的局限性和伦理问题,努力减少对特定群体的意外偏见。