#Cross-Encoder

ag-nli-DeTS-sentence-similarity-v4 - 句子相似度的跨编码器评估与文本分类应用
Github开源项目模型语义匹配Huggingface句子相似性Cross-EncoderSentenceTransformersNLI数据集
本模型采用Cross-Encoder方法,对多语言句子相似度进行评估,使用六种NLI数据集训练。通过提供0到1间的相似度分数,协助实现精确的文本分类和语义分析。基于SentenceTransformers框架,提升文本特征提取性能,适用于包括英语、荷兰语、德语、法语、意大利语和西班牙语在内的多种语言。
stsb-roberta-large - RoBERTa大型模型用于评估句子语义相似度
Github开源项目自然语言处理模型Huggingface语义相似度Cross-EncoderSentenceTransformers文本对比
stsb-roberta-large是一个基于SentenceTransformers框架的Cross-Encoder模型,专门用于评估句子对的语义相似度。该模型在STS基准数据集上训练,可为两个句子之间的语义相似性预测0到1之间的分数。它可以轻松集成到多种自然语言处理任务中,为文本相似度分析提供解决方案。
qnli-electra-base - Quora重复问题检测的跨编码器工具
Github开源项目模型训练模型HuggingfaceCross-EncoderQuora重复问题检测GLUE QNLI
这个开源项目提供了一种跨编码器模型,适用于Quora的重复问题检测。通过使用SentenceTransformers库中的Cross-Encoder类,这个模型在GLUE QNLI数据集上进行训练,并转化SQuAD数据集为自然语言推理任务。用户可以选择通过SentenceTransformers库或Transformers库灵活调用预训练模型。
ag-nli-DeTS-sentence-similarity-v3-light - 多语言句子相似性评分模型
Github开源项目预训练模型模型transformersHuggingface句子相似性Cross-Encodersentence similarity
本模型通过多语言NLI数据集训练,利用跨编码器评估句子间的语义相似度。支持使用Python库SentenceTransformers调用,适用于英语、德语、法语、西班牙语、意大利语等多种语言。
quora-roberta-large - 利用Cross-Encoder模型判断Quora重复问题,增强问答匹配效果
Github开源项目预训练模型模型HuggingfaceCross-Encoder句子变换器Quora相似性检测
此模型使用SentenceTransformers的Cross-Encoder类别进行训练,针对Quora的重复问题数据集评分0至1。虽然不适合评估问题相似性,但在识别重复问题上表现良好。用户可通过sentence_transformers或Transformers的AutoModel类应用该模型,以提升问答系统的精准性和效率。
nli-roberta-base - 用于自然语言推理与零样本分类的跨编码器
Github开源项目模型Huggingface模型性能训练数据自然语言推理Cross-EncoderZero-Shot 分类
此模型使用SentenceTransformers中的Cross-Encoder类开发,专用于自然语言推理(NLI),通过SNLI和MultiNLI数据集训练,可输出矛盾、蕴含及中立标签分数。预训练模型兼容零样本分类,便于通过SentenceTransformers或Transformers库应用于多种文本推理与分类场景。
nli-deberta-v3-xsmall - 使用DeBERTa模型实现自然语言推理与零样本分类
Github开源项目模型Huggingfacezero-shot分类自然语言推理Cross-EncoderSNLIMultiNLI
该模型通过Cross-Encoder技术训练,基于microsoft/deberta-v3-xsmall,实现自然语言推理及零样本分类。其使用SNLI和MultiNLI数据进行训练,表现为:SNLI测试集91.64%的准确率,MNLI错配集87.77%的准确率。模型能识别句对的矛盾、蕴涵和中立标签,支持Python和Transformers库的调用,便于在多场景中应用。详细信息请参阅文档以提升项目中的自然语言处理效果。
quora-distilroberta-base - 客观识别Quora问题重复性的开源模型
Github开源项目模型训练模型HuggingfaceCross-Encoder相似性检测Quora Duplicate QuestionsQuora数据集
该模型基于SentenceTransformers的Cross-Encoder类进行训练,旨在用于检测Quora问题的重复性。通过比较成对问题,模型将输出0到1之间的分数以判断问题是否重复。需注意,该模型不适合判断问题相似度,如“如何学习Java”和“如何学习Python”将获得较低分。用户可以通过sentence_transformers或Transformers的AutoModel类使用此预训练模型。
ms-marco-TinyBERT-L-6 - 跨编码器在信息检索与重排序中的应用
Github开源项目模型Huggingface信息检索模型性能Cross-EncoderMS MarcoSentenceTransformers
TinyBERT-L-6模型在MS Marco Passage Ranking任务中进行了优化,解决信息检索中的查询与段落排序问题。该模型通过交叉编码器实现高效的信息检索,提升查准率并缩短排序时间。支持Transformers与SentenceTransformers工具使用,简化实现流程,展示良好性能。项目提供详尽的训练代码和性能评估,助力深度学习场景下的信息处理任务优化。
mmarco-mMiniLMv2-L12-H384-v1 - 支持多语言的MMARCO跨编码器模型
Github开源项目模型训练多语言模型Huggingface信息检索Google翻译Cross-Encoder
MMARCO-MiniLMv2-L12-H384-v1模型使用MMARCO数据集,以Google Translate翻译为14种语言,基于多语言MiniLMv2训练,主要用于信息检索。借助SentenceTransformers工具,用户可以对查询进行编码和排序,实现高效的信息检索。详细信息和训练代码可在SBERT.net及GitHub上查看,适用于多语言环境的信息检索。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号