Project Icon

opensearch-neural-sparse-encoding-v1

跨平台高效搜索的稀疏检索模型

此开源项目展示了一个学习型稀疏检索模型,通过将查询和文档编码为稀疏向量,提供高效的搜索解决方案。模型在MS MARCO数据集上进行训练,并在BEIR基准测试中展示了优良的搜索相关性与推理速度。支持OpenSearch神经稀疏功能,能与Lucene倒排索引结合,进行高效的索引与搜索。该项目提供多个模型版本,适应不同的数据集与应用需求。使用者能在OpenSearch集群内或通过HuggingFace模型API进行模型的外部运行。

项目介绍:OpenSearch Neural Sparse Encoding V1

概述

OpenSearch Neural Sparse Encoding V1 是一个学习稀疏检索模型,旨在提高搜索的相关性和效率。该模型能将查询和文档编码成 30522 维的稀疏向量,其中每一个非零维度对应词汇表中的一个词符,其权重则表示该词符的重要性。

模型的选择

在选择模型时,应考虑搜索相关性、模型推理和检索效率(如 FLOPS,浮点运算次数)。通过在 BEIR 基准测试的子集中测试模型的零样本性能,v2 系列的模型整体上比 v1 系列在搜索相关性、效率和推理速度上表现更好。

以下是一些不同版本模型的比较:

模型可用于检索(无推理)模型参数平均 NDCG@10平均 FLOPS
opensearch-neural-sparse-encoding-v1133M0.52411.4
opensearch-neural-sparse-encoding-v2-distill67M0.5288.3
opensearch-neural-sparse-encoding-doc-v1✔️133M0.4902.3
opensearch-neural-sparse-encoding-doc-v2-distill✔️67M0.5041.8
opensearch-neural-sparse-encoding-doc-v2-mini✔️23M0.4971.7

而 v1 模型在一些特定数据集上的具体表现差异可能不同,用户可以根据实际需求进行选择。

技术细节

该模型基于 MS MARCO 数据集进行训练。模型的一个核心功能是支持使用 OpenSearch 的高层 API,通过 Lucene 倒排索引进行学习的稀疏检索。具体可以参考OpenSearch Neural Sparse 文档。

模型可以在 OpenSearch 集群内运行,也可以通过 HuggingFace 的 API 在集群外使用。模型能够将稠密向量转换为稀疏向量,并通过向量的点积计算查询和文档之间的相似度。

使用示例

一个简单的 Python 示例展示了如何使用该模型:

import itertools
import torch
from transformers import AutoModelForMaskedLM, AutoTokenizer

# 加载模型
model = AutoModelForMaskedLM.from_pretrained("opensearch-project/opensearch-neural-sparse-encoding-v1")
tokenizer = AutoTokenizer.from_pretrained("opensearch-project/opensearch-neural-sparse-encoding-v1")

query = "What's the weather in ny now?"
document = "Currently New York is rainy."

# 编码查询和文档
feature = tokenizer([query, document], padding=True, truncation=True, return_tensors='pt', return_token_type_ids=False)
output = model(**feature)[0]
# 获得稀疏向量并计算相似度
sparse_vector = get_sparse_vector(feature, output)
sim_score = torch.matmul(sparse_vector[0], sparse_vector[1])
print(sim_score)   # 输出一个相似度得分

# 转换稀疏向量为字典形式以便分析
query_token_weight, document_query_token_weight = transform_sparse_vector_to_dict(sparse_vector)
# 展示查询和文档中每个词符的权重
for token in sorted(query_token_weight, key=lambda x:query_token_weight[x], reverse=True):
    if token in document_query_token_weight:
        print("score in query: %.4f, score in document: %.4f, token: %s"%(query_token_weight[token],document_query_token_weight[token],token))

详细的搜索相关性

在详细的搜索相关性指标中,不同模型在多个数据集上的表现如下:

模型平均Trec CovidNFCorpusNQHotpotQAFiQAArguAnaToucheDBPediaSCIDOCSFEVER气候 FEVERSciFactQuora
opensearch-neural-sparse-encoding-v10.5240.7710.3600.5530.6970.3760.5080.2780.4470.1640.8210.2630.7230.856

开源许可证

本项目基于 Apache v2.0 License 开放。

版权

版权所有 OpenSearch 贡献者。详情参阅NOTICE 文档。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号