SGPT: 基于GPT的语义搜索句子嵌入

RayRay
SGPT语义搜索双编码器交叉编码器对比微调Github开源项目

SGPT: 基于GPT的语义搜索句子嵌入

语义搜索是信息检索领域的一个重要任务,其目标是根据语义相似度而非简单的关键词匹配来检索相关文档。近年来,随着预训练语言模型的发展,基于神经网络的语义搜索方法取得了显著进展。本文介绍了一种新的语义搜索方法 - SGPT(GPT Sentence Embeddings for Semantic Search),该方法利用GPT模型生成高质量的句子嵌入,可用于多种语义搜索场景。

SGPT的核心思想

SGPT的核心思想是利用GPT等大规模预训练语言模型的强大语义理解能力,将其应用到语义搜索任务中。具体来说,SGPT提出了两种主要的模型架构:

  1. SGPT-BE (Bi-Encoder): 双编码器架构,分别对查询和文档进行编码,然后计算相似度。

  2. SGPT-CE (Cross-Encoder): 交叉编码器架构,将查询和文档作为一个整体输入模型,直接预测相关性分数。

这两种架构都可以应用于对称搜索(查询和文档使用相同的编码方式)和非对称搜索(查询和文档使用不同的编码方式)场景。

SGPT模型架构图

SGPT-BE: 基于GPT的双编码器

SGPT-BE采用了一种创新的方法来生成句子嵌入:

  1. 只微调GPT模型的偏置张量,保持其他参数固定,这样可以大大减少需要训练的参数量。

  2. 使用位置加权平均池化来生成固定长度的句子表示。具体来说,对每个token的表示按其在序列中的位置进行加权,然后取平均。

  3. 对于非对称搜索,在查询和文档前分别添加特殊标记([和{),以区分它们的角色。

通过这种方法,SGPT-BE可以生成高质量的句子嵌入,同时保持计算效率。

SGPT-CE: 基于GPT的交叉编码器

SGPT-CE直接利用GPT模型的语言建模能力来评估查询-文档对的相关性:

  1. 将查询和文档拼接成一个序列,输入GPT模型。

  2. 计算模型对查询部分的对数概率,作为相关性分数。

  3. 无需任何微调,直接使用预训练的GPT模型。

这种方法充分利用了GPT模型的零样本学习能力,可以在没有任何训练数据的情况下进行语义搜索。

SGPT的优势

SGPT相比传统方法具有以下优势:

  1. 利用大规模预训练语言模型的强大语义理解能力。

  2. 支持双编码器和交叉编码器两种架构,适用于不同的应用场景。

  3. 可用于对称和非对称搜索,灵活性高。

  4. SGPT-BE只需微调少量参数,训练效率高。

  5. SGPT-CE无需微调,可直接进行零样本语义搜索。

实验结果

研究者在多个基准数据集上评估了SGPT的性能,包括BEIR(异构领域检索)和USEB(同构领域检索)。实验结果表明:

  1. 在BEIR上,SGPT-BE(5.8B参数)在27个数据集中的22个上优于DPR等强基线。

  2. 在USEB上,SGPT-BE(5.8B参数)在所有6个数据集上都取得了最佳性能。

  3. SGPT-CE展现出强大的零样本能力,在多个数据集上超越了经过微调的BERT交叉编码器。

  4. 增加模型规模可以持续提升性能,表明SGPT有潜力从更大的语言模型中受益。

这些结果充分证明了SGPT在语义搜索任务上的有效性和潜力。

使用SGPT

研究者提供了多种使用SGPT的方式,包括:

  1. 基于Hugging Face Transformers的实现:

    • 支持SGPT-BE和SGPT-CE
    • 提供了对称和非对称搜索的示例代码
  2. 基于Sentence Transformers的实现:

    • 与流行的Sentence Transformers库兼容
    • 提供了简单易用的API
  3. 预训练模型:

    • 在Hugging Face Model Hub上提供了多个预训练模型
    • 包括不同参数规模(从125M到5.8B)的模型

这些实现和预训练模型大大降低了使用SGPT的门槛,使其可以被广泛应用于各种语义搜索场景。

总结与展望

SGPT为语义搜索提供了一种新的范式,通过利用GPT等大规模预训练语言模型的能力,在多个基准测试中取得了优异的性能。它的灵活架构和简单有效的实现使其具有广阔的应用前景。

未来的研究方向可能包括:

  1. 探索更大规模的语言模型(如GPT-3)在SGPT中的应用。

  2. 将SGPT扩展到多语言和跨语言语义搜索场景。

  3. 研究如何进一步提高SGPT的计算效率,使其适用于大规模实时搜索系统。

  4. 将SGPT与其他信息检索技术(如稀疏检索)结合,构建更强大的混合搜索系统。

总的来说,SGPT为语义搜索领域带来了新的机遇和挑战,有望推动该领域的进一步发展。

编辑推荐精选

Manus

Manus

全面超越基准的 AI Agent助手

Manus 是一款通用人工智能代理平台,能够将您的创意和想法迅速转化为实际成果。无论是定制旅行规划、深入的数据分析,还是教育支持与商业决策,Manus 都能高效整合信息,提供精准解决方案。它以直观的交互体验和领先的技术,为用户开启了一个智慧驱动、轻松高效的新时代,让每个灵感都能得到完美落地。

飞书知识问答

飞书知识问答

飞书官方推出的AI知识库 上传word pdf即可部署AI私有知识库

基于DeepSeek R1大模型构建的知识管理系统,支持PDF、Word、PPT等常见文档格式解析,实现云端与本地数据的双向同步。系统具备实时网络检索能力,可自动关联外部信息源,通过语义理解技术处理结构化与非结构化数据。免费版本提供基础知识库搭建功能,适用于企业文档管理和个人学习资料整理场景。

Trae

Trae

字节跳动发布的AI编程神器IDE

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

TraeAI IDE协作生产力转型热门AI工具
酷表ChatExcel

酷表ChatExcel

大模型驱动的Excel数据处理工具

基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。

使用教程AI工具酷表ChatExcelAI智能客服AI营销产品
DeepEP

DeepEP

DeepSeek开源的专家并行通信优化框架

DeepEP是一个专为大规模分布式计算设计的通信库,重点解决专家并行模式中的通信瓶颈问题。其核心架构采用分层拓扑感知技术,能够自动识别节点间物理连接关系,优化数据传输路径。通过实现动态路由选择与负载均衡机制,系统在千卡级计算集群中维持稳定的低延迟特性,同时兼容主流深度学习框架的通信接口。

DeepSeek

DeepSeek

全球领先开源大模型,高效智能助手

DeepSeek是一家幻方量化创办的专注于通用人工智能的中国科技公司,主攻大模型研发与应用。DeepSeek-R1是开源的推理模型,擅长处理复杂任务且可免费商用。

KnowS

KnowS

AI医学搜索引擎 整合4000万+实时更新的全球医学文献

医学领域专用搜索引擎整合4000万+实时更新的全球医学文献,通过自主研发AI模型实现精准知识检索。系统每日更新指南、中英文文献及会议资料,搜索准确率较传统工具提升80%,同时将大模型幻觉率控制在8%以下。支持临床建议生成、文献深度解析、学术报告制作等全流程科研辅助,典型用户反馈显示每周可节省医疗工作者70%时间。

Windsurf Wave 3

Windsurf Wave 3

Windsurf Editor推出第三次重大更新Wave 3

新增模型上下文协议支持与智能编辑功能。本次更新包含五项核心改进:支持接入MCP协议扩展工具生态,Tab键智能跳转提升编码效率,Turbo模式实现自动化终端操作,图片拖拽功能优化多模态交互,以及面向付费用户的个性化图标定制。系统同步集成DeepSeek、Gemini等新模型,并通过信用点数机制实现差异化的资源调配。

AI IDE
腾讯元宝

腾讯元宝

腾讯自研的混元大模型AI助手

腾讯元宝是腾讯基于自研的混元大模型推出的一款多功能AI应用,旨在通过人工智能技术提升用户在写作、绘画、翻译、编程、搜索、阅读总结等多个领域的工作与生活效率。

AI 办公助手AI对话AI助手AI工具腾讯元宝智能体热门
Grok3

Grok3

埃隆·马斯克旗下的人工智能公司 xAI 推出的第三代大规模语言模型

Grok3 是由埃隆·马斯克旗下的人工智能公司 xAI 推出的第三代大规模语言模型,常被马斯克称为“地球上最聪明的 AI”。它不仅是在前代产品 Grok 1 和 Grok 2 基础上的一次飞跃,还在多个关键技术上实现了创新突破。

下拉加载更多