Project Icon

all_datasets_v3_mpnet-base

基于MPNet的高效句子和段落编码模型

该模型利用sentence-transformers,通过microsoft/mpnet-base预训练模型和自监督对比学习目标进行微调,将句子和段落有效编码至768维度向量空间,适用于信息检索、语义搜索和聚类任务,尤其是在句子相似度计算中有较好表现。微调时,使用了超过10亿对的句子数据,并在TPU v3-8环境下进行了920k步训练,采用AdamW优化器和对比损失。此外,在无sentence-transformers库的情况下,通过特定的池化操作仍可实现相似的编码效果,代码实现简单易用。

项目介绍:all_datasets_v3_mpnet-base

项目背景

all_datasets_v3_mpnet-base是一个利用句子嵌入技术将句子和段落映射到768维密集向量空间的模型。这种技术可以用于句子聚类或语义搜索等任务。该项目旨在通过自监督对比学习目标,在非常大规模的句子级数据集上训练句子嵌入模型。我们使用了预训练的microsoft/mpnet-base模型,并在包含10亿对句子的数据库上进行了微调。

在Hugging Face组织的使用JAX/Flax进行NLP和计算机视觉的社区周中,我们开发了这一模型。项目得到了谷歌Flax、JAX和云团队成员关于高效深度学习框架的支持,以及七个TPU v3-8的硬件设施。

模型用途

该模型设计为句子与短段落编码器,输入文本将转化为包含语义信息的向量,这种句子向量可以用于信息检索、聚类或句子相似性任务。对于长度超过128个词块的文本,默认会进行截断处理。

训练过程

预训练

我们使用了microsoft/mpnet-base的预训练模型,详细的预训练过程可以参考对应模型文档。

微调

微调过程中,我们使用了对比学习目标。具体而言,我们计算批次中每个可能的句子对之间的余弦相似度,然后将其与真实对比进行交叉熵损失处理。

超参数

模型是在TPU v3-8上训练的,总共进行了92万步,批次大小为512(每个TPU核心64)。我们使用500步的学习率热身,序列长度限制为128个token,并采用AdamW优化器,学习率为2e-5。完整的训练脚本可以在当前仓库中的train_script.py中找到。

训练数据

我们通过多数据集的结合来微调模型,句子对总数量超过10亿。每个数据集的抽样采用加权概率进行,配置详细信息见data_config.json文件。目前使用的一些主要数据集及其对应论文和训练样本数如下:

数据集论文训练样本数
Reddit评论(2015-2018)论文726,484,430
S2ORC 摘要引用对论文116,288,806
WikiAnswers 重复问题对论文77,427,422
PAQ 问答对论文64,371,441
.........
总计-1,124,818,467

使用方法

使用 Sentence-Transformers

安装sentence-transformers库之后,通过以下方式加载并使用模型:

pip install -U sentence-transformers

from sentence_transformers import SentenceTransformer
sentences = ["这是一个例句", "每个句子被转换"]

model = SentenceTransformer('sentence-transformers/all-mpnet-base-v1')
embeddings = model.encode(sentences)
print(embeddings)

使用 HuggingFace Transformers

无需sentence-transformers库,也可以使用该模型。首先,将输入通过transformer模型,然后在上下文化词嵌入上应用合适的池化操作:

from transformers import AutoTokenizer, AutoModel
import torch
import torch.nn.functional as F

# 平均池化 - 考虑注意力掩码正确求均值
def mean_pooling(model_output, attention_mask):
    token_embeddings = model_output[0] # model_output的第一个元素包含所有token嵌入
    input_mask_expanded = attention_mask.unsqueeze(-1).expand(token_embeddings.size()).float()
    return torch.sum(token_embeddings * input_mask_expanded, 1) / torch.clamp(input_mask_expanded.sum(1), min=1e-9)

# 我们想要句子嵌入的句子
sentences = ['这是一个例句', '每个句子被转换']

# 从HuggingFace Hub加载模型
tokenizer = AutoTokenizer.from_pretrained('sentence-transformers/all-mpnet-base-v1')
model = AutoModel.from_pretrained('sentence-transformers/all-mpnet-base-v1')

# 对句子进行分词
encoded_input = tokenizer(sentences, padding=True, truncation=True, return_tensors='pt')

# 计算token嵌入
with torch.no_grad():
    model_output = model(**encoded_input)

# 执行池化
sentence_embeddings = mean_pooling(model_output, encoded_input['attention_mask'])

# 归一化嵌入
sentence_embeddings = F.normalize(sentence_embeddings, p=2, dim=1)

print("句子嵌入:")
print(sentence_embeddings)

评估结果

有关该模型的自动化评估,请参见句子嵌入基准

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号