项目介绍:sentiment-hts5-xlm-roberta-hungarian
项目背景
sentiment-hts5-xlm-roberta-hungarian
项目专注于利用自然语言处理技术进行匈牙利语的情感分析。该项目的核心是一个基于 XLM-RoBERTa 模型的预训练模型,经过针对匈牙利 Twitter 情感数据(HTS)语料库的微调训练,能够有效识别句子的情感倾向。
模型概述
该模型使用了 XLM-RoBERTa base 作为基础,通过大量的匈牙利语言数据进行预训练,再在专门的匈牙利 Twitter 情感数据集上进行微调。它能够对句子进行情感分类,标记为五种情感程度:非常消极(0)、消极(1)、中立(2)、积极(3)和非常积极(4)。
模型特点
- 语言支持:该模型专门用于处理匈牙利语文本。
- 标签设置:提供了五级情感标签,细化程度较高。
- 预训练模型:基于强大的 XLM-RoBERTa,具有处理多语言文本的能力。
- 微调数据:通过 HTS(Hungarian Twitter Sentiment)语料库进行微调优化。
使用限制
该模型的最大序列长度为128个字符,这意味着在处理文本时,对于过长的段落需进行适当的文本截断或分段分析。
性能表现
在情感分析任务中,模型在 HTS2 和 HTS5 数据集上的表现如下:
- 在 HTS2 数据集上,模型的准确率为85.56。
- 在 HTS5 数据集上,XLM-RoBERTa 的表现为66.50,而 huBERT 模型在此数据集上的表现稍强,为68.99。
这一结果显示了该模型在匈牙利语情感分析领域的优越性能,同时也指出其他模型(如 huBERT)可能在特定数据集上有更好的效果。
使用与引用
如果您在研究或项目中使用此模型,请引用相关的学术文章,以遵循知识产权和引用规范:
@article {laki-yang-sentiment,
author = {Laki, László János and Yang, Zijian Győző},
title = {Sentiment Analysis with Neural Models for Hungarian},
journal = {Acta Polytechnica Hungarica},
year = {2023},
publisher = {Obuda University},
volume = {20},
number = {5},
doi = {10.12700/APH.20.5.2023.5.8},
pages= {109--128},
url = {https://acta.uni-obuda.hu/Laki_Yang_134.pdf}
}
通过遵循这些步骤和指导,使用者能够充分利用这一先进模型进行匈牙利语文本的情感分析,为研究和实际应用提供有力支持。更多详细信息和工具请访问项目的 GitHub 仓库 或 演示网站。