#KLUE

bert-base - KLUE BERT base为韩语自然语言处理提供强大支持
语言模型Huggingface模型BERTGithub韩语开源项目自然语言处理KLUE
KLUE BERT base是一个专门针对韩语自然语言处理任务的预训练模型。它基于62GB多样化韩语语料库训练,采用创新的形态素子词分词技术。在KLUE基准测试中,该模型在主题分类、语义相似度和命名实体识别等多项任务上展现出优异性能。此外,研究团队也注重解决数据偏见和隐私保护问题,为韩语NLP领域提供了重要工具。
klue-sroberta-base-continue-learning-by-mnr - 基于KLUE数据集的韩语句子表示模型用于语义相似度分析
嵌入模型KLUE开源项目Huggingface语义相似度NLPsentence-transformersGithub
该模型是基于KLUE数据集训练的韩语句子表示工具,采用sentence-transformers框架。通过NLI和STS任务的多阶段训练,模型在语义相似度分析方面表现出色。它能将句子转换为768维向量,可用于聚类和语义搜索等应用。在STS测试集上,模型达到0.89的相关性分数,显示了较高的准确性。
roberta-large - 深入探索韩语RoBERTa大型语言模型
HuggingfaceRoBERTa模型KLUE模型Github韩国语开源项目自然语言处理机器学习
此开源项目展示了在韩语上预训练的RoBERTa大型语言模型,使用BertTokenizer加载,专为提升韩语自然语言处理任务而设计,是研究与应用的有力辅助工具。
roberta-base - 基于大规模韩语数据集的RoBERTa预训练语言模型
HuggingfaceRoBERTaKLUE模型Github开源项目自然语言处理韩语模型机器学习
RoBERTa-base是KLUE(Korean Language Understanding Evaluation)项目开发的韩语预训练模型,基于BertTokenizer分词器构建,支持transformers库直接调用。作为韩语语言理解评估框架的基础模型,主要应用于韩语自然语言处理任务和相关研究工作。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号