#句向量模型
ruRoPEBert-e5-base-2k - 俄语句子编码模型支持长上下文和高效注意力机制
模型开源项目句向量模型HuggingfaceCulturaXruRoPEBertGithubTransformers俄语
ruRoPEBert是Tochka AI团队基于RoPEBert架构开发的俄语句子编码模型。该模型在CulturaX数据集上训练,支持2048个token的上下文,并可扩展。模型集成高效注意力机制和平均池化层,易于使用。在encodechka基准测试中,ruRoPEBert的S+W评分领先其他模型。此外,它还支持分类任务,并可通过RoPE缩放扩展上下文窗口。
sentence-bert-base-ja-mean-tokens - 日语Sentence-BERT模型实现句子向量化和相似度计算
特征提取Huggingface模型句向量模型BERTGithub语义相似度日语开源项目
sentence-bert-base-ja-mean-tokens是一个专为日语开发的Sentence-BERT模型,可将日语句子转换为向量表示。该模型适用于句子相似度计算、文本分类等NLP任务,提供Python接口,支持批量处理和GPU加速。作为日语自然语言处理的基础工具,它为开发者提供了高效的句子编码解决方案。
sbert-base-chinese-nli - SBERT中文句向量模型实现语义相似度计算
模型句向量模型GithubUER-pyChinese Sentence BERT开源项目Huggingface语义相似度自然语言处理
sbert-base-chinese-nli是一个基于BERT的中文句向量模型,通过UER-py框架预训练,并在ChineseTextualInference数据集上微调。该模型可将中文句子转换为向量表示,主要用于计算语义相似度。用户可通过sentence-transformers库轻松调用,适用于自然语言处理中的句子相似度任务。模型采用Siamese网络结构,在腾讯云平台上进行了5轮微调,以提升性能。
sentence-bert-base-italian-uncased - 意大利语句向量模型 支持文本特征提取和语义相似度计算
文本相似度Github模型自然语言处理sentence-transformers句向量模型模型训练开源项目Huggingface
该模型是基于BERT架构的意大利语sentence-transformers模型,可将文本映射为768维向量。它支持文本特征提取、语义相似度计算和文本聚类等任务,适用于意大利语自然语言处理场景。模型使用CosineSimilarityLoss训练,并提供了详细的使用示例,可通过sentence-transformers或HuggingFace Transformers库轻松集成。