#交叉编码器
sgpt - 提升语义搜索精准度的句嵌入GPT模型
Github开源项目语义搜索SGPT双编码器交叉编码器对比微调
SGPT项目通过改进GPT模型,提供了高效的语义搜索解决方案。该项目支持对称和非对称搜索,使得句子嵌入更具语义意义。新发布的GRIT模型在同一结构下融合了多种编码器,性能更佳。欢迎访问GitHub,了解详细信息和获取预训练模型。
stsb-roberta-base - 基于RoBERTa的句对语义相似度预测模型
Github开源项目自然语言处理模型训练模型Huggingface交叉编码器语义相似度SentenceTransformers
stsb-roberta-base是一个基于SentenceTransformers的Cross-Encoder模型,专门用于预测句对语义相似度。该模型在STS benchmark数据集上训练,可为句对相似性给出0到1之间的分数。模型支持通过sentence_transformers库或Transformers的AutoModel类调用,为NLP任务提供语义分析功能。模型采用Apache-2.0开源许可,使用简单,只需几行代码即可实现句对相似度预测。它不仅可用于语义相似度任务,还可应用于问答系统、文本匹配等多种NLP场景,为开发者提供了便捷的语义分析解决方案。
ms-marco-MiniLM-L-6-v2 - MiniLM-L-6跨编码器模型提升MS Marco信息检索效率
Github开源项目模型Huggingface信息检索交叉编码器模型性能MS MarcoSentenceTransformers
ms-marco-MiniLM-L-6-v2是一个针对MS Marco信息检索任务优化的跨编码器模型。在TREC Deep Learning 2019和MS Marco Passage Reranking数据集上,其NDCG@10和MRR@10分别达到74.30和39.01。模型每秒处理1800个文档,平衡了性能和效率。基于SentenceTransformers库,该模型可轻松集成到信息检索系统中,用于查询-段落相关性排序。