项目介绍:dehatebert-mono-english
项目背景
dehatebert-mono-english 是一个用于检测英语中仇恨言论的模型。它在单语环境中运作,这意味着模型是使用纯英语的数据进行训练的。该模型是基于多语言Bert模型进行微调的,以提升其在仇恨言论检测任务中的表现。
模型训练
在训练过程中,研究人员使用了不同的学习率进行实验,最终取得了最佳的验证分数0.726030,这一成绩是在学习率为2e-5时实现的。模型的训练代码可以通过这个链接找到,感兴趣的朋友可以通过这个资源更深入地了解模型的训练过程。
学术贡献
dehatebert-mono-english模型的相关研究成果被收录在一篇名为《多语言仇恨言论检测的深度学习模型》的论文中。该论文由Sai Saketh Aluru、Binny Mathew、Punyajoy Saha 和 Animesh Mukherjee撰写,并在2020年的ECML-PKDD会议上被接收。如果在发表的作品中引用了这个资源,作者请求引用这篇论文以给予相应的学术认可。
论文引用格式
如果您需要引用这篇论文,请使用以下格式:
@article{aluru2020deep,
title={Deep Learning Models for Multilingual Hate Speech Detection},
author={Aluru, Sai Saket and Mathew, Binny and Saha, Punyajoy and Mukherjee, Animesh},
journal={arXiv preprint arXiv:2004.06465},
year={2020}
}
总结
dehatebert-mono-english模型是一个专门用于检测英语仇恨言论的工具。通过因特网提供的开源训练代码,研究人员和开发者可以进一步探索其应用潜力和改进空间。此外,该模型代表了在多语言环境下检测仇恨言论的一个重要步骤,展示了深度学习技术在处理这样复杂任务中的优势。