#AraBERT

bert-base-arabertv02 - AraBERT:用于阿拉伯语理解的高性能预训练模型
模型BERTGithub开源项目Huggingface预训练语言模型自然语言处理阿拉伯语AraBERT
AraBERT是一系列基于BERT架构的阿拉伯语预训练语言模型。其中bert-base-arabertv02版本使用了77GB的大规模语料库进行训练,包含200M句子和8.6B词。这些模型在情感分析、命名实体识别和问答等多项任务中表现出色。AraBERT提供多个版本,包括base和large尺寸,以及预分割和未分割文本的变体,以满足不同应用需求。模型的优化和多样化为阿拉伯语自然语言处理研究和应用提供了有力支持。
bert-base-arabertv2 - 阿拉伯语自然语言预训练模型 支持多任务场景应用
阿拉伯语机器学习Github自然语言处理HuggingfaceAraBERT开源项目模型预训练模型
AraBERTv2是一个阿拉伯语自然语言处理模型,基于200M句子数据集训练,支持情感分析、命名实体识别和智能问答等应用场景。模型采用Farasa分词技术优化词汇处理,通过Hugging Face平台提供PyTorch、TensorFlow等多框架版本。在多项基准测试中,该模型展现出较好的语言理解能力。
AraBert-Arabic-Sentiment-Analysis - 基于AraBERT的阿拉伯语情感分析模型实现80%分类准确率
机器学习Github自然语言处理HuggingfaceAraBERT开源项目模型阿拉伯语情感分析情感分析
基于AraBERT预训练模型微调的阿拉伯语情感分析模型,在评估数据集上实现了80.03%的准确率和65.43%的宏F1分数。模型采用Adam优化器和线性学习率调度器,使用16的训练批次大小,经过2轮训练得到。基于Transformers框架开发,专注于阿拉伯语文本的情感分类任务。
bert-base-arabert - AraBERT阿拉伯语言理解预训练模型
机器学习Github模型开源项目AraBERT语料库Huggingface阿拉伯语言模型自然语言处理
AraBERT是一个阿拉伯语言理解预训练模型系列,提供从基础到大型等多个版本。模型基于超过77GB的阿拉伯语语料库训练,适用于情感分析、命名实体识别和问答等任务,支持主流深度学习框架。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号