SGPT: 基于GPT的语义搜索句子嵌入
语义搜索是信息检索领域的一个重要任务,其目标是根据语义相似度而非简单的关键词匹配来检索相关文档。近年来,随着预训练语言模型的发展,基于神经网络的语义搜索方法取得了显著进展。本文介绍了一种新的语义搜索方法 - SGPT(GPT Sentence Embeddings for Semantic Search),该方法利用GPT模型生成高质量的句子嵌入,可用于多种语义搜索场景。
SGPT的核心思想
SGPT的核心思想是利用GPT等大规模预训练语言模型的强大语义理解能力,将其应用到语义搜索任务中。具体来说,SGPT提出了两种主要的模型架构:
-
SGPT-BE (Bi-Encoder): 双编码器架构,分别对查询和文档进行编码,然后计算相似度。
-
SGPT-CE (Cross-Encoder): 交叉编码器架构,将查询和文档作为一个整体输入模型,直接预测相关性分数。
这两种架构都可以应用于对称搜索(查询和文档使用相同的编码方式)和非对称搜索(查询和文档使用不同的编码方式)场景。
SGPT-BE: 基于GPT的双编码器
SGPT-BE采用了一种创新的方法来生成句子嵌入:
-
只微调GPT模型的偏置张量,保持其他参数固定,这样可以大大减少需要训练的参数量。
-
使用位置加权平均池化来生成固定长度的句子表示。具体来说,对每个token的表示按其在序列中的位置进行加权,然后取平均。
-
对于非对称搜索,在查询和文档前分别添加特殊标记([和{),以区分它们的角色。
通过这种方法,SGPT-BE可以生成高质量的句子嵌入,同时保持计算效率。
SGPT-CE: 基于GPT的交叉编码器
SGPT-CE直接利用GPT模型的语言建模能力来评估查询-文档对的相关性:
-
将查询和文档拼接成一个序列,输入GPT模型。
-
计算模型对查询部分的对数概率,作为相关性分数。
-
无需任何微调,直接使用预训练的GPT模型。
这种方法充分利用了GPT模型的零样本学习能力,可以在没有任何训练数据的情况下进行语义搜索。
SGPT的优势
SGPT相比传统方法具有以下优势:
-
利用大规模预训练语言模型的强大语义理解能力。
-
支持双编码器和交叉编码器两种架构,适用于不同的应用场景。
-
可用于对称和非对称搜索,灵活性高。
-
SGPT-BE只需微调少量参数,训练效率高。
-
SGPT-CE无需微调,可直接进行零样本语义搜索。
实验结果
研究者在多个基准数据集上评估了SGPT的性能,包括BEIR(异构领域检索)和USEB(同构领域检索)。实验结果表明:
-
在BEIR上,SGPT-BE(5.8B参数)在27个数据集中的22个上优于DPR等强基线。
-
在USEB上,SGPT-BE(5.8B参数)在所有6个数据集上都取得了最佳性能。
-
SGPT-CE展现出强大的零样本能力,在多个数据集上超越了经过微调的BERT交叉编码器。
-
增加模型规模可以持续提升性能,表明SGPT有潜力从更大的语言模型中受益。
这些结果充分证明了SGPT在语义搜索任务上的有效性和潜力。
使用SGPT
研究者提供了多种使用SGPT的方式,包括:
-
基于Hugging Face Transformers的实现:
- 支持SGPT-BE和SGPT-CE
- 提供了对称和非对称搜索的示例代码
-
基于Sentence Transformers的实现:
- 与流行的Sentence Transformers库兼容
- 提供了简单易用的API
-
预训练模型:
- 在Hugging Face Model Hub上提供了多个预训练模型
- 包括不同参数规模(从125M到5.8B)的模型
这些实现和预训练模型大大降低了使用SGPT的门槛,使其可以被广泛应用于各种语义搜索场景。
总结与展望
SGPT为语义搜索提供了一种新的范式,通过利用GPT等大规模预训练语言模型的能力,在多个基准测试中取得了优异的性能。它的灵活架构和简单有效的实现使其具有广阔的应用前景。
未来的研究方向可能包括:
-
探索更大规模的语言模型(如GPT-3)在SGPT中的应用。
-
将SGPT扩展到多语言和跨语言语义搜索场景。
-
研究如何进一步提高SGPT的计算效率,使其适用于大规模实时搜索系统。
-
将SGPT与其他信息检索技术(如稀疏检索)结合,构建更强大的混合搜索系统。
总的来说,SGPT为语义搜索领域带来了新的机遇和挑战,有望推动该领域的进一步发展。