#BERTurk
bert-base-turkish-sentiment-cased - 高精度的土耳其语言情感分析BERT模型
Github开源项目模型训练模型数据集情感分析Huggingface土耳其语BERTurk
该模型基于BERTurk,专为土耳其语言的情感分析设计,结合了电影评论、产品评论和推特数据集,实现了95.4%的准确度。适用于多种土耳其语文本情感分析场景,项目由Savas Yildirim发布于Hugging Face平台,并采用了先进的特征表示与融合技术。使用者需遵循引用要求以符合合规标准。
bert-base-turkish-128k-uncased - 土耳其BERTurk无标记语言模型
Github开源项目自然语言处理机器学习数据库模型Huggingface土耳其语BERTurk
土耳其BERTurk模型由德国巴伐利亚州立图书馆的MDZ团队开发,并得到土耳其NLP社区的支持。此无标记BERT模型使用包含土耳其语OSCAR语料库、维基百科、OPUS语料库及Kemal Oflazer提供的语料进行训练,总语料量为35GB。模型在Google的TPU v3-8上通过TensorFlow Research Cloud训练了200万步,词汇量为128k,目前支持PyTorch-Transformers。