热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#毒性识别
ToxicityModel - 基于RoBERTa的毒性检测与评分优化工具
Github
开源项目
AI辅助
模型
transformers
Huggingface
词汇评级
毒性识别
ToxicityModel
这是一款基于RoBERTa的微调模型,用于有效检测和评分文本毒性。模型通过有毒及无毒语言示例训练,特别在wiki_toxic和toxic_conversations_50k数据集上表现出色。作为RLHF训练的辅助工具,该模型的输出值可用于判断文本的毒性与否,适合多种需检测有毒语言的应用场景。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号