#句子嵌入

SONAR: 革命性的多语言多模态句子嵌入技术

2024年09月05日
Cover of SONAR: 革命性的多语言多模态句子嵌入技术
相关项目
Project Cover

SONAR

SONAR是Meta AI推出的开源多语言多模态句子表示模型。它支持200种语言的文本处理和37种语言的语音处理,在多语言相似性搜索任务中性能优异。SONAR可用于文本和语音嵌入、文本重构、跨语言翻译等多种自然语言处理任务,为多语言多模态AI应用提供了强大的基础。

Project Cover

bert-base-nli-stsb-mean-tokens

此模型能将句子和段落映射为768维向量,适用于分类和语义搜索。但由于其生成的嵌入质量不佳,已被弃用。建议使用最新的模型以提升效果。通过安装sentence-transformers库或使用HuggingFace Transformers,都能实现向量转换功能。

Project Cover

amd-partial-phonetree-v1

SetFit模型结合sentence-transformers/paraphrase-mpnet-base-v2,通过高效的少样本学习实现文本分类。模型采用对比学习微调句子转换器和训练LogisticRegression分类头,具有优异的分类性能。支持最大512标记长度,适用于电话语音邮件和电话树分类需求。模型适合需要高效文本分类的研发人员和数据科学家使用。

Project Cover

allenai-specter

该模型将AllenAI SPECTER转化为Sentence-Transformers框架,可用于将科学文献的标题和摘要映射至向量空间以计算相似度。在安装Sentence-Transformers库后,用户能轻松进行相似度计算,同时也支持从HuggingFace Transformers加载模型。本文档还展示了如何使用池化操作聚合上下文词嵌入。

Project Cover

all-MiniLM-L6-v2

all-MiniLM-L6-v2是一个基于sentence-transformers的句子嵌入模型。它能将文本映射至384维向量空间,在超11亿对句子上微调而成。该模型适用于语义搜索、聚类等多种NLP任务,采用对比学习方法生成高质量嵌入。通过sentence-transformers或Hugging Face Transformers库,可轻松集成到各类应用中。在多项基准测试中,all-MiniLM-L6-v2展现出优异性能。

Project Cover

distiluse-base-multilingual-cased-v1

distiluse-base-multilingual-cased-v1是一个基于sentence-transformers框架的多语言句子嵌入模型。它能将句子和段落映射到512维密集向量空间,支持15种语言的语义处理。模型采用DistilBERT架构,通过平均池化和全连接层生成嵌入,适用于聚类、语义搜索等任务。借助sentence-transformers库,开发者可便捷地实现句子编码和跨语言相似度计算。

Project Cover

all-MiniLM-L12-v2

采用自监督对比学习技术,all-MiniLM-L12-v2模型专注于高效编码句子和短段落,利用超过11亿句对进行训练,加强语义搜索和信息检索性能。结合TPU与JAX/Flax技术优化,模型方便集成在sentence-transformers或HuggingFace Transformers中,适合多种文本处理应用。

Project Cover

all-distilroberta-v1

all-distilroberta-v1是一个基于sentence-transformers的句子嵌入模型,将句子和段落映射到768维向量空间。该模型在超10亿对句子上微调,采用对比学习方法,有效捕捉语义信息。适用于语义搜索、聚类、句子相似度计算等NLP任务,为应用提供高质量的句子表示。

Project Cover

SimCSE

SimCSE项目提供一个简单的句子嵌入对比学习框架,支持有标签和无标签数据。无监督模型使用标准dropout通过输入句子预测自身,有监督模型利用NLI数据集的注释对进行对比学习。用户可以轻松安装并使用SimCSE进行句子嵌入、相似性计算和句子检索。该项目支持HuggingFace集成和faiss相似性搜索库,并提供全面的模型评估和训练脚本。详细信息和代码请参阅SimCSE仓库。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号