Project Icon

bert-fa-base-uncased

波斯语领域预训练的单语言Transformer模型

ParsBERT是一个基于Transformer架构的波斯语单语言模型,通过大规模波斯语料库预训练,能够处理情感分析、文本分类及命名实体识别等任务。ParsBERT v2.0通过词汇表重构和新波斯语料库微调,在多项任务中表现优于多语言BERT和其他模型,提升了波斯语语言处理的效果。该模型支持掩码语言建模和后续任务微调,用户可在Hugging Face平台获取不同任务的微调版本。

bert-fa-base-uncased项目介绍

概览

bert-fa-base-uncased是一个专为波斯语(Persian)设计的单语语言模型,基于谷歌的BERT架构。该项目以提升波斯语理解能力为目标,并致力于将ParsBERT的应用范围扩展到不同领域。

项目背景

项目人员重建了词汇表,并在新的波斯语语料库上微调了ParsBERT v1.1,推出了最新的ParsBERT v2.0版本。该模型在大量涵盖多种写作风格和主题的波斯语文档上进行预训练,包括科学、小说和新闻等,语料库包含超过390万篇文档、7300万句子和13亿个词语。

可以查看ParsBERT的论文以及项目主页获取更多信息。

主要用途与限制

bert-fa-base-uncased的原始模型可用于掩码语言模型或下一句预测,但更适合在下游任务上进行微调。在HuggingFace的模型中心可以找到针对特定任务微调的版本。

如何使用

在TensorFlow 2.0中使用

要在TensorFlow 2.0中使用bert-fa-base-uncased,首先需要导入相关库,并加载预训练的配置、分词器和模型。以下是基本的代码示例:

from transformers import AutoConfig, AutoTokenizer, TFAutoModel
config = AutoConfig.from_pretrained("HooshvareLab/bert-fa-base-uncased")
tokenizer = AutoTokenizer.from_pretrained("HooshvareLab/bert-fa-base-uncased")
model = TFAutoModel.from_pretrained("HooshvareLab/bert-fa-base-uncased")
text = "ما در هوشواره معتقدیم با انتقال صحیح دانش و آگاهی، همه افراد میتوانند از ابزارهای هوشمند استفاده کنند. شعار ما هوش مصنوعی برای همه است."
tokenizer.tokenize(text)

在PyTorch中使用

在PyTorch中使用bert-fa-base-uncased同样只需导入相关库并加载模型:

from transformers import AutoConfig, AutoTokenizer, AutoModel
config = AutoConfig.from_pretrained("HooshvareLab/bert-fa-base-uncased")
tokenizer = AutoTokenizer.from_pretrained("HooshvareLab/bert-fa-base-uncased")
model = AutoModel.from_pretrained("HooshvareLab/bert-fa-base-uncased")

模型训练

ParsBERT的训练使用了大量的公开语料库,如Persian Wikidumps和MirasText,以及六种从不同网站手动抓取的数据。例如科学网站BigBangPage、生活方式网站Chetor、旅行网站Eligasht等。这一系列的预处理步骤使语料库格式化成适合使用的形态。

ParsBERT v2.0还进行了详细的评估。其性能在情感分析、文本分类以及命名实体识别任务上均超过了其他包括多语言BERT在内的语言模型,显著提高了波斯语建模的表现。

评估结果

ParsBERT在以下三项NLP下游任务上进行评估:情感分析(SA)、文本分类(TC)和命名实体识别(NER)。结果显示,ParsBERT v2.0在此类任务中均展示了优异的表现。

情感分析课题性能对比

ParsBERT在不同数据集上的表现均超越了之前的版本及其他模型。例如,在Digikala用户评论数据集上,ParsBERT v2的准确率达到81.72%。

文本分类课题性能对比

在Digikala电子杂志数据集和波斯新闻数据集上的测试中,ParsBERT v2同样以93.65%和97.44%的准确率,超过了其他使用多语言BERT的对比模型。

命名实体识别课题性能对比

在PEYMA和ARMAN数据集上的评估结果中,ParsBERT v2分别达到93.40%和99.84%的表现,明显领先于其他最先进的模型。

结语

如果您有任何问题或需要进一步的信息,请访问ParsBERT Issues页面提交Github问题。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号