Project Icon

all_datasets_v3_mpnet-base

基于MPNet的高效句子和段落编码模型

该模型利用sentence-transformers,通过microsoft/mpnet-base预训练模型和自监督对比学习目标进行微调,将句子和段落有效编码至768维度向量空间,适用于信息检索、语义搜索和聚类任务,尤其是在句子相似度计算中有较好表现。微调时,使用了超过10亿对的句子数据,并在TPU v3-8环境下进行了920k步训练,采用AdamW优化器和对比损失。此外,在无sentence-transformers库的情况下,通过特定的池化操作仍可实现相似的编码效果,代码实现简单易用。

项目介绍:all_datasets_v3_mpnet-base

项目背景

all_datasets_v3_mpnet-base是一个利用句子嵌入技术将句子和段落映射到768维密集向量空间的模型。这种技术可以用于句子聚类或语义搜索等任务。该项目旨在通过自监督对比学习目标,在非常大规模的句子级数据集上训练句子嵌入模型。我们使用了预训练的microsoft/mpnet-base模型,并在包含10亿对句子的数据库上进行了微调。

在Hugging Face组织的使用JAX/Flax进行NLP和计算机视觉的社区周中,我们开发了这一模型。项目得到了谷歌Flax、JAX和云团队成员关于高效深度学习框架的支持,以及七个TPU v3-8的硬件设施。

模型用途

该模型设计为句子与短段落编码器,输入文本将转化为包含语义信息的向量,这种句子向量可以用于信息检索、聚类或句子相似性任务。对于长度超过128个词块的文本,默认会进行截断处理。

训练过程

预训练

我们使用了microsoft/mpnet-base的预训练模型,详细的预训练过程可以参考对应模型文档。

微调

微调过程中,我们使用了对比学习目标。具体而言,我们计算批次中每个可能的句子对之间的余弦相似度,然后将其与真实对比进行交叉熵损失处理。

超参数

模型是在TPU v3-8上训练的,总共进行了92万步,批次大小为512(每个TPU核心64)。我们使用500步的学习率热身,序列长度限制为128个token,并采用AdamW优化器,学习率为2e-5。完整的训练脚本可以在当前仓库中的train_script.py中找到。

训练数据

我们通过多数据集的结合来微调模型,句子对总数量超过10亿。每个数据集的抽样采用加权概率进行,配置详细信息见data_config.json文件。目前使用的一些主要数据集及其对应论文和训练样本数如下:

数据集论文训练样本数
Reddit评论(2015-2018)论文726,484,430
S2ORC 摘要引用对论文116,288,806
WikiAnswers 重复问题对论文77,427,422
PAQ 问答对论文64,371,441
.........
总计-1,124,818,467

使用方法

使用 Sentence-Transformers

安装sentence-transformers库之后,通过以下方式加载并使用模型:

pip install -U sentence-transformers

from sentence_transformers import SentenceTransformer
sentences = ["这是一个例句", "每个句子被转换"]

model = SentenceTransformer('sentence-transformers/all-mpnet-base-v1')
embeddings = model.encode(sentences)
print(embeddings)

使用 HuggingFace Transformers

无需sentence-transformers库,也可以使用该模型。首先,将输入通过transformer模型,然后在上下文化词嵌入上应用合适的池化操作:

from transformers import AutoTokenizer, AutoModel
import torch
import torch.nn.functional as F

# 平均池化 - 考虑注意力掩码正确求均值
def mean_pooling(model_output, attention_mask):
    token_embeddings = model_output[0] # model_output的第一个元素包含所有token嵌入
    input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()
    return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)

# 我们想要句子嵌入的句子
sentences = ['这是一个例句', '每个句子被转换']

# 从HuggingFace Hub加载模型
tokenizer = AutoTokenizer.from_pretrained('sentence-transformers/all-mpnet-base-v1')
model = AutoModel.from_pretrained('sentence-transformers/all-mpnet-base-v1')

# 对句子进行分词
encoded_input = tokenizer(sentences, padding=True, truncation=True, return_tensors='pt')

# 计算token嵌入
with torch.no_grad():
    model_output = model(**encoded_input)

# 执行池化
sentence_embeddings = mean_pooling(model_output, encoded_input['attention_mask'])

# 归一化嵌入
sentence_embeddings = F.normalize(sentence_embeddings, p=2, dim=1)

print("句子嵌入:")
print(sentence_embeddings)

评估结果

有关该模型的自动化评估,请参见句子嵌入基准

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号