#土耳其语

Tabirim - AI智能梦境解析平台
AI工具Tabirim智能解梦人工智能梦境诠释土耳其语
Tabirim是一个基于AI技术的在线梦境解析平台,每月服务超7500位用户。该平台提供实时、个性化的梦境解读,助力探索潜意识。除智能解梦外,Tabirim还包含常见梦境解析库和完善的用户协议。支持多语言访问,并与其他AI平台合作,打造全方位智能服务生态。
bert_turkish_sentiment - 微调TurkishBERTweet的高精度土耳其语情感分析模型
土耳其语Huggingface情感分析模型BERTTurkishBERTweetGithub开源项目自然语言处理
该模型基于VRLLab/TurkishBERTweet微调而来,专门用于土耳其语情感分析。在评估集上达到0.9972的高准确率,显示出强大的性能。模型采用Adam优化器,配合线性学习率调度器,经过3轮训练,每批次处理8个样本。虽然在土耳其语文本情感分析方面表现出色,但其具体应用场景和限制仍有待进一步研究。
bert_cased_ner - BERT模型驱动的土耳其语命名实体识别工具
模型GithubMilliyetNER开源项目Huggingface土耳其语命名实体识别BertTurk自然语言处理
项目开发了一个专门用于土耳其语的BERT命名实体识别模型。该模型基于MilliyetNER新闻语料库训练,可识别人名、地点和组织三类实体。模型表现优异,测试集F1得分达0.96。提供简洁的Python接口,方便研究者和开发者在土耳其语自然语言处理任务中应用。
wav2vec2-xls-r-300m-cv7-turkish - 基于Wav2vec2优化的土耳其语语音识别模型
模型wav2vec2-xls-r-300mCommon Voice开源项目Huggingface语音识别土耳其语机器学习模型Github
该模型是在wav2vec2-xls-r-300m基础上针对土耳其语优化的自动语音识别系统。通过Common Voice 7和MediaSpeech数据集训练,结合N-gram语言模型,在Common Voice 7测试集上实现8.62%词错误率和2.26%字符错误率。模型为土耳其语语音识别提供了高效可靠的开源解决方案,适用于多种语音识别场景。
opus-mt-tc-big-tr-en - OPUS-MT 项目开源的土耳其语-英语神经机器翻译模型
模型机器翻译英语开源项目Huggingface土耳其语OPUS-MTtransformerGithub
opus-mt-tc-big-tr-en 是 OPUS-MT 项目开发的土耳其语到英语神经机器翻译模型。该模型基于 Marian NMT 框架训练,并转换为 PyTorch 格式以兼容 Hugging Face transformers 库。在多个测试集上表现优异,Tatoeba 测试集上 BLEU 分数达 57.6。模型采用 transformer-big 架构,使用 OPUS 和 Tatoeba Challenge 数据训练,为研究人员和开发者提供了高质量的开源翻译工具。
bert-base-turkish-cased - 巴伐利亚州立图书馆开发的土耳其语BERT预训练模型
土耳其语Huggingface模型机器学习BERTGithub开源项目自然语言处理Hugging Face
巴伐利亚州立图书馆MDZ数字图书馆团队开发的土耳其语BERT模型,使用多种语料库进行预训练。该模型基于35GB、44亿token的语料库,经过200万步训练,可通过Hugging Face Transformers库加载。它为土耳其语自然语言处理任务如词性标注和命名实体识别提供了基础支持。模型采用了OSCAR语料库、Wikipedia、OPUS语料库等多种资源,旨在提升土耳其语NLP任务的性能。
bert-base-turkish-uncased - 巴伐利亚州立图书馆开源的土耳其语预训练BERT模型
BERT开源项目自然语言处理深度学习模型Github土耳其语Hugging FaceHuggingface
巴伐利亚州立图书馆MDZ团队开发的土耳其语BERT模型,基于35GB语料库训练而成,涵盖OSCAR、维基百科及OPUS等多个数据集,包含44亿个标记。该模型采用Google TPU v3-8进行200万步训练,完全兼容PyTorch-Transformers框架,可应用于词性标注、命名实体识别等土耳其语自然语言处理任务。
bert-base-turkish-sentiment-cased - 高精度的土耳其语言情感分析BERT模型
数据集Github开源项目土耳其语BERTurkHuggingface模型训练情感分析模型
该模型基于BERTurk,专为土耳其语言的情感分析设计,结合了电影评论、产品评论和推特数据集,实现了95.4%的准确度。适用于多种土耳其语文本情感分析场景,项目由Savas Yildirim发布于Hugging Face平台,并采用了先进的特征表示与融合技术。使用者需遵循引用要求以符合合规标准。
bert-base-turkish-128k-uncased - 土耳其BERTurk无标记语言模型
机器学习Github模型开源项目BERTurkHuggingface数据库土耳其语自然语言处理
土耳其BERTurk模型由德国巴伐利亚州立图书馆的MDZ团队开发,并得到土耳其NLP社区的支持。此无标记BERT模型使用包含土耳其语OSCAR语料库、维基百科、OPUS语料库及Kemal Oflazer提供的语料进行训练,总语料量为35GB。模型在Google的TPU v3-8上通过TensorFlow Research Cloud训练了200万步,词汇量为128k,目前支持PyTorch-Transformers。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号