#MiniLMv2
nli-MiniLM2-L6-H768 - 基于MiniLM2的自然语言推理跨编码器模型
零样本分类模型自然语言推理SentenceTransformersGithubMiniLMv2开源项目HuggingfaceCrossEncoder
nli-MiniLM2-L6-H768是一个基于SentenceTransformers框架的跨编码器模型,专门用于自然语言推理任务。该模型在SNLI和MultiNLI数据集上训练,可以对给定的句子对判断矛盾、蕴含和中性三种语义关系。除了传统的NLI任务,它还支持零样本分类,适用范围广泛。模型采用紧凑的MiniLM2结构,在保持准确性的同时提供了良好的性能。
MiniLMv2-agentflow-v2-onnx - MiniLMv2-ONNX模型帮助文本分类和LLM事件识别
文本分类LLM代理Github开源项目OptimumHuggingfaceONNXMiniLMv2模型
本项目介绍了一款量化文本分类模型,能高效识别对话流程中的常见LLM事件,如道歉、误解和功能受限。该模型基于MiniLMv2-L6-H384开发,运用ONNX提高推理效率及精度,适合高级LLM分析,支持在CPU设备上部署,通过轻量级方案优化性能表现。
multilingual-MiniLMv2-L6-mnli-xnli - 轻量级多语言自然语言推理与分类模型
多语言翻译MiniLMv2机器学习零样本分类HuggingfaceGithub开源项目自然语言推理模型
MiniLMv2是一款支持100多种语言的自然语言推理模型,采用知识蒸馏技术从XLM-RoBERTa-large模型优化而来。经过XNLI和MNLI数据集的微调训练,该模型在XNLI测试集达到71.3%的平均准确率。相比原始模型,具备更低的资源消耗和更快的运行速度,适合跨语言迁移学习应用。