#MiniLM
all_miniLM_L6_v2_with_attentions - 基于MiniLM的句子相似度搜索增强模型
开源项目MiniLM句子相似度模型模型嵌入ONNXGithubHuggingfaceQdrant
基于MiniLM-L6-v2架构开发的句子相似度模型,通过整合注意力权重机制增强了文本搜索能力。模型采用ONNX格式发布,可与FastEmbed库无缝集成,支持稀疏嵌入生成,在大规模文本检索场景中表现出色。该模型针对BM42搜索进行了特别优化,能有效提升检索准确度。
MiniLM-L12-H384-uncased - 轻量快速的预训练语言模型实现BERT级别性能表现
BERT开源项目深度学习MiniLM模型模型压缩Github自然语言处理Huggingface
MiniLM-L12-H384-uncased通过模型压缩技术将参数量降至33M,在保持与BERT相当性能的同时,运行速度提升2.7倍。模型在SQuAD 2.0和GLUE等自然语言理解任务中表现出色,可直接替代BERT,适用于对模型体积和运行效率敏感的场景。
minilm-uncased-squad2 - MiniLM抽取式问答模型在SQuAD 2.0数据集实现76分精确匹配
SQuAD 2.0Transformers开源项目Huggingface问答模型Haystack模型MiniLMGithub
MiniLM-L12-H384-uncased是一款专注于英文抽取式问答的开源模型。经SQuAD 2.0数据集训练后,模型可从文本中精确定位答案信息,并通过Haystack或Transformers框架便捷部署。目前在验证集评测中展现出优秀的问答性能,适合搭建生产环境的问答应用。
Multilingual-MiniLM-L12-H384 - 紧凑高效的多语言预训练模型助力跨语言自然语言处理
Github模型模型压缩开源项目多语言模型MiniLMHuggingface跨语言任务自然语言处理
Multilingual-MiniLM-L12-H384是一款小型多语言预训练模型,采用12层结构和384维隐藏单元,transformer参数仅2100万。该模型在XNLI和MLQA等跨语言任务中表现出色,支持15种语言,同时保持了较小的模型规模。它融合了BERT的架构设计和XLM-R的分词技术,适用于各类需要高效多语言处理的应用场景。