#语义相似度
semantic-cache - 基于语义相似度的自然文本缓存工具 提升NLP和AI响应效率
Semantic Cache语义相似度向量数据库自然语言处理缓存优化Github开源项目
Semantic Cache是一个基于语义相似度的自然文本缓存工具。它能够对自然文本进行分类、缓存AI响应以减少重复计算,并利用已缓存的值降低API延迟。该工具具有多语言支持、复杂查询处理能力,易于集成且可自定义。通过语义相似性存储缓存条目和处理同义词,Semantic Cache为Node.js应用程序提供了简单的API。这使得它特别适用于需要基于语义进行查询或信息检索的任务。
acge_text_embedding - 高性能中文文本嵌入模型,提升语义相似度和检索效果
文本嵌入Huggingface模型信息检索Github语义相似度MTEB开源项目sentence-transformers
acge_text_embedding是一个针对中文自然语言处理优化的文本嵌入模型。该模型在MTEB基准测试中表现优异,尤其在语义相似度计算和信息检索任务上成绩突出。它还在文本分类等多个中文NLP任务中展现出优秀性能,为中文自然语言处理应用提供了高效的文本表示能力。
KoSimCSE-roberta-multitask - 韩语句子嵌入模型实现高效语义相似度计算
模型HuggingfaceGithubRoBERTa预训练模型开源项目SimCSE语义相似度韩语句子嵌入
KoSimCSE-roberta-multitask是一款开源的韩语句子嵌入模型,主要用于计算句子间的语义相似度。在语义文本相似性测试中,该模型的平均得分达到85.77。项目提供预训练模型和推理代码,方便用户进行句子嵌入和相似度计算。同时,它还为个人训练模型提供环境支持,适用于各种自然语言处理和语义分析任务。
gte-large-zh - 中文语义相似度与检索的卓越表现模型
模型gte-large-zhGithubsentence-transformersMTEB开源项目Huggingface语义相似度自然语言处理
gte-large-zh模型在MTEB中文基准测试中表现突出,涵盖句子相似度、文本分类、聚类、重排序和检索等多个任务。该模型在CMNLI和JDReview等数据集上的准确率超过80%,为中文自然语言处理应用提供了稳定的语义理解基础。
sentence-t5-base - 基于T5架构的句子编码模型用于文本相似度分析
模型sentence-t5-baseGithub向量嵌入sentence-transformers开源项目Huggingface语义相似度自然语言处理
sentence-t5-base是一个基于T5架构的句子编码模型,能将文本映射到768维向量空间。该模型在句子相似度任务中表现优异,但语义搜索效果一般。它由TensorFlow版本转换而来,可通过sentence-transformers库轻松使用。模型仅包含T5-base的编码器部分,权重采用FP16格式存储。使用时需要sentence-transformers 2.2.0及以上版本。这个模型适用于多种自然语言处理应用场景,尤其是文本相似度分析。
vietnamese-embedding - 基于PhoBERT的越南语句嵌入模型提升多项NLP任务性能
模型PhoBERTvietnamese-embeddingGithubsentence-transformers开源项目Huggingface语义相似度自然语言处理
vietnamese-embedding是一个针对越南语优化的句子嵌入模型,基于PhoBERT架构开发。该模型通过四阶段训练,包括SimCSE初始训练、XNLI持续微调、STS基准微调和数据增强,将越南语句子编码为768维向量。在语义文本相似性等多项评估中,该模型性能优于现有越南语嵌入模型,可应用于语义搜索、文本聚类等自然语言处理任务。
stsb-roberta-large - RoBERTa大型模型用于评估句子语义相似度
Cross-Encoder模型SentenceTransformers文本对比Github开源项目Huggingface语义相似度自然语言处理
stsb-roberta-large是一个基于SentenceTransformers框架的Cross-Encoder模型,专门用于评估句子对的语义相似度。该模型在STS基准数据集上训练,可为两个句子之间的语义相似性预测0到1之间的分数。它可以轻松集成到多种自然语言处理任务中,为文本相似度分析提供解决方案。
bilingual-embedding-large - 基于Transformer架构的法英双语文本向量模型
文本嵌入多语言模型开源项目sentence-transformers模型语义相似度Github自然语言处理Huggingface
bilingual-embedding-large是一个基于Transformer的法英双语句向量模型,支持聚类、重排序和检索等文本相似度任务。模型通过MTEB基准测试验证,在跨语言文本语义理解方面展现了稳定性能。该模型主要应用于法语和英语文本的语义分析与对比场景。
roberta-large-nli-stsb-mean-tokens - 基于RoBERTa的大规模语义相似度计算和文本嵌入模型
向量化模型嵌入Github自然语言处理Huggingface开源项目模型语义相似度sentence-transformers
这是一个基于RoBERTa的sentence-transformers模型,可将文本映射至1024维向量空间。它支持句子相似度计算、文本聚类和语义搜索等任务,并提供简便的API接口。该模型可通过sentence-transformers或HuggingFace Transformers库使用,便于获取文本嵌入。然而,由于性能已过时,建议采用更新的预训练模型替代。
Semantic-Textual-Relatedness-Spanish - 基于Sentence-Transformers的西班牙语语义关联分析模型
Github语言模型HuggingfaceSemEval文本相关性开源项目模型语义相似度sentence-transformers
基于sentence-transformers框架开发的西班牙语语义关联分析模型,可将文本映射至256维向量空间,实现文本聚类和语义搜索功能。模型采用Transformer架构与CosineSimilarity损失函数,在SemEval-2024评测中获得0.677的Spearman相关系数。
stsb-bert-base - 基于BERT的文本向量化和语义相似度分析工具
句向量GithubBERT自然语言处理Huggingface开源项目模型语义相似度sentence-transformers
stsb-bert-base是一个已弃用的句子转换模型,基于BERT架构可将文本转化为768维向量表示。模型通过sentence-transformers或HuggingFace Transformers库提供支持,适用于文本聚类和语义搜索。尽管不再推荐使用,但其架构设计和实现方法对理解文本向量化技术具有重要参考意义。
German_Semantic_STS_V2 - 德语语义相似度计算模型 实现文本搜索与聚类
GithubBERT自然语言处理Huggingface德语模型开源项目模型语义相似度sentence-transformers
这是一个专注于德语文本处理的语义模型,能够准确计算文本间的语义相似度。模型在德语基准测试中表现出色,相似度评分达到0.86,优于现有主流方案。主要应用于智能文本搜索、文档聚类等场景,并提供简单的集成方式。
KoSimCSE-roberta - 基于RoBERTa架构的韩语句子相似度预训练模型
KoSimCSE语义相似度Github开源项目RoBERTa韩语句嵌入Huggingface预训练模型模型
KoSimCSE-roberta是一个韩语句子向量嵌入预训练模型,基于RoBERTa架构和多任务学习方法构建。在语义文本相似度测试中,模型取得85.77%的评分。模型提供完整的预训练权重和推理环境,可用于计算韩语句子间的语义相似度,支持文本匹配等自然语言处理任务。
stsb-bert-tiny-onnx - 基于BERT的轻量级文本向量化模型
语义相似度文本嵌入Githubsentence-transformers开源项目自然语言处理Huggingface模型训练模型
这是一个轻量级的文本向量化模型,基于sentence-transformers框架开发。模型可将文本转换为128维向量表示,主要应用于文本聚类和语义搜索。支持通过sentence-transformers和HuggingFace两种方式调用,提供完整的模型评估数据。
vietnamese-sbert - 基于SBERT的越南语句子相似度与语义分析模型
语义相似度Githubsentence-transformers向量嵌入开源项目越南语自然语言处理Huggingface模型
基于sentence-transformers框架开发的越南语NLP模型,通过RoBERTa架构将文本映射至768维向量空间。支持句子相似度计算、语义搜索及文本聚类功能,可通过sentence-transformers和HuggingFace进行快速部署。该模型经过专门优化,为越南语自然语言处理任务提供精确的语义表示。
all-MiniLM-L6-v1 - 基于MiniLM的神经网络句子编码模型
语义相似度语义搜索开源项目自然语言处理模型Huggingface句向量sentence-transformersGithub
all-MiniLM-L6-v1是基于transformer架构的句子编码模型,能将文本转换为384维向量表示。该模型在10亿规模的句子数据集上采用对比学习方法训练,适用于文本聚类和语义检索等自然语言处理任务。模型同时支持sentence-transformers和Hugging Face两个主流框架,便于开发者快速集成和部署。
USER-bge-m3 - 专为俄语优化的高性能文本嵌入模型
语义相似度句子嵌入开源项目自然语言处理俄语句向量模型HuggingfaceGithubUSER-bge-m3
USER-bge-m3是一个为俄语优化的文本嵌入模型,基于bge-m3架构开发。该模型能将俄语句子和段落转换为1024维向量表示,适用于聚类和语义搜索等任务。通过创新的训练方法,如数据对称性微调和LM-Cocktail模型融合,USER-bge-m3在多个俄语基准测试中表现出色,超越了原始bge-m3模型的性能。
bert-base-japanese-v3-unsup-simcse-jawiki - 使用无监督SimCSE的BERT日文模型特性和应用
bert-base-japanese-v3-unsup-simcse-jawikiGithub模型transformers开源项目SimCSEHuggingface大规模语言模型语义相似度
本项目利用无监督SimCSE方法对BERT大型语言模型进行微调,重点在于日文数据集的应用。通过cl-tohoku/bert-base-japanese-v3模型和来自jawiki的句子数据集进行训练,旨在提高语言理解与相似度计算的能力。项目附带丰富的使用案例,例如通过Colab笔记本进行的训练与推论,帮助研究者与开发者了解模型的实际应用。这一无监督方法为自然语言处理任务提供了创新方案,尤其适合有特定语言需求的专业项目。
stsb-distilroberta-base-v2 - 基于DistilRoBERTa的文本向量化与语义搜索模型
语义相似度向量嵌入自然语言处理sentence-transformersHuggingfaceGithub开源项目模型特征提取
基于DistilRoBERTa架构的预训练语言模型,将文本转换为768维向量表示。模型整合sentence-transformers框架,支持句子相似度计算、文本聚类和语义搜索功能。通过平均池化策略优化文本嵌入处理,在保证性能的同时降低资源消耗,适用于大规模文本向量化场景。
gte-micro-v3 - 轻量级语义嵌入模型用于高效文本相似度计算
sentence-transformersGithub模型开源项目Huggingface文本嵌入gte-micro-v3语义相似度自然语言处理
gte-micro-v3是一个轻量级语义嵌入模型,由gte-tiny蒸馏而来。该模型主要用于语义自动补全,可生成句子嵌入向量,实现文本相似度计算。基于sentence-transformers框架开发,支持最多512个token的英文输入。在MTEB评测中表现优异,适用于要求高效文本语义理解的应用。
BioBERT-mnli-snli-scinli-scitail-mednli-stsb - 基于BioBERT的多领域句子嵌入模型
BioBERTsentence-transformers语义相似度模型Github开源项目嵌入向量自然语言处理Huggingface
该项目是一个基于BioBERT的句子嵌入模型,通过多个领域数据集训练而成。模型能将文本映射至768维向量空间,适用于聚类和语义搜索等任务。它不仅在生物医学领域表现出色,还可应用于其他文本分析场景。模型支持sentence-transformers和HuggingFace Transformers两种调用方式,为用户提供了便捷的使用体验。
LLM2Vec-Meta-Llama-3-8B-Instruct-mntp - 基于大语言模型的文本编码器实现语义检索与文本嵌入
语义相似度机器学习Huggingface开源项目LLM2Vec模型Github语言模型文本编码
LLM2Vec项目将解码器型大语言模型转换为文本编码器。项目采用双向注意力机制、掩码token预测和无监督对比学习方法,用于文本嵌入和语义相似度计算。通过Python接口实现文本理解和检索功能,支持自定义指令查询,可进行模型微调以提升性能。
Conan-embedding-v1 - 中文文本处理的开源深度学习工具
检索性能语义相似度Huggingface句子转换器conan-embeddingGithub文本分类开源项目模型
Conan-embedding-v1是一个开源项目,采用sentence-transformers库,支持多种中文自然语言处理任务如STS、分类、重排序、检索和聚类。通过在AFQMC、ATEC和AmazonReviewsClassification等数据集上的测试,该项目展示了其在复杂中文语境中的有效性。其分析与性能指标对比提供了开发者和研究人员一种提升自然语言处理效率和准确性的方法。