#MiniLM

MiniLM-evidence-types - MiniLM模型在证据类型分类任务上的应用与性能
模型模型训练Github开源项目Huggingface机器学习MiniLM数据集自然语言处理
这是一个基于microsoft/MiniLM-L12-H384-uncased模型在证据类型数据集上微调的版本。经过20轮训练后,模型在评估集上达到了0.7161的准确率和0.3726的宏F1分数。训练过程采用了Adam优化器、线性学习率调度器和混合精度训练技术。此模型主要用于自动分类和识别文本中的不同证据类型,可为相关研究和应用提供参考。
msmarco-MiniLM-L12-cos-v5 - 用于语义搜索的句子转换和嵌入模型
MiniLMHuggingface模型MS MARCOGithub开源项目自然语言处理句子转换器语义搜索
msmarco-MiniLM-L12-cos-v5是一个专为语义搜索设计的句子转换模型,能将文本映射到768维向量空间。该模型在MS MARCO数据集上训练,支持通过sentence-transformers和HuggingFace Transformers两种方式使用。它生成规范化嵌入,适用于多种相似度计算方法,可用于开发高效的语义搜索应用。
paraphrase-MiniLM-L12-v2 - sentence-transformers模型用于生成384维句子嵌入向量
MiniLMHuggingface模型Github语义相似度开源项目sentence-transformers自然语言处理向量嵌入
paraphrase-MiniLM-L12-v2是一个sentence-transformers模型,将句子和段落映射到384维向量空间。适用于聚类和语义搜索,支持通过sentence-transformers或Hugging Face Transformers库使用。该模型在Sentence Embeddings Benchmark上表现良好,采用Transformer和Pooling架构处理文本并生成句子嵌入。
MiniLM-L12-H384-uncased_Nvidia-Aegis-AI-Safety - 基于MiniLM的多标签文本分类模型实现AI内容安全检测
AI安全MiniLMHuggingface模型深度学习Github开源项目自然语言处理文本分类
本模型基于MiniLM-L12-H384-uncased在Nvidia Aegis AI安全数据集上微调,可识别14类有害内容。在测试集上达到95.15%的准确率和66.83%的精确度。模型能够检测包括受管制物质、犯罪计划、欺诈、非法武器等多种有害内容,为AI系统的内容安全审核提供支持。
all_miniLM_L6_v2_with_attentions - 基于MiniLM的句子相似度搜索增强模型
开源项目MiniLM句子相似度模型模型嵌入ONNXGithubHuggingfaceQdrant
基于MiniLM-L6-v2架构开发的句子相似度模型,通过整合注意力权重机制增强了文本搜索能力。模型采用ONNX格式发布,可与FastEmbed库无缝集成,支持稀疏嵌入生成,在大规模文本检索场景中表现出色。该模型针对BM42搜索进行了特别优化,能有效提升检索准确度。
MiniLM-L12-H384-uncased - 轻量快速的预训练语言模型实现BERT级别性能表现
BERT开源项目深度学习MiniLM模型模型压缩Github自然语言处理Huggingface
MiniLM-L12-H384-uncased通过模型压缩技术将参数量降至33M,在保持与BERT相当性能的同时,运行速度提升2.7倍。模型在SQuAD 2.0和GLUE等自然语言理解任务中表现出色,可直接替代BERT,适用于对模型体积和运行效率敏感的场景。
minilm-uncased-squad2 - MiniLM抽取式问答模型在SQuAD 2.0数据集实现76分精确匹配
SQuAD 2.0Transformers开源项目Huggingface问答模型Haystack模型MiniLMGithub
MiniLM-L12-H384-uncased是一款专注于英文抽取式问答的开源模型。经SQuAD 2.0数据集训练后,模型可从文本中精确定位答案信息,并通过Haystack或Transformers框架便捷部署。目前在验证集评测中展现出优秀的问答性能,适合搭建生产环境的问答应用。
Multilingual-MiniLM-L12-H384 - 紧凑高效的多语言预训练模型助力跨语言自然语言处理
Github模型模型压缩开源项目多语言模型MiniLMHuggingface跨语言任务自然语言处理
Multilingual-MiniLM-L12-H384是一款小型多语言预训练模型,采用12层结构和384维隐藏单元,transformer参数仅2100万。该模型在XNLI和MLQA等跨语言任务中表现出色,支持15种语言,同时保持了较小的模型规模。它融合了BERT的架构设计和XLM-R的分词技术,适用于各类需要高效多语言处理的应用场景。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号