#自然语言推理

deberta-v3-base-zeroshot-v2.0 - DeBERTa V3零样本分类模型,适用于多场景
Huggingfacezero-shot-classificationGithub文本分类训练数据自然语言推理开源项目模型模型评估
DeBERTa V3模型在Hugging Face管道中实现零样本分类,满足商业环境的许可证要求。无需训练数据即可高效分类,支持GPU和CPU应用,适用于多个领域。通过合成及商用友好的数据进行训练,模型在多文本分类任务中表现优异。
mDeBERTa-v3-base-finetuned-nli-jnli - 基于多语言NLI和JGLUE数据集微调的日语NLP模型
Huggingface零样本分类模型Github开源项目mDeBERTa-v3微调多语言模型自然语言推理
该模型基于微软mdeberta-v3-base在多语言NLI和JGLUE数据集上微调而来。它支持日语零样本文本分类和跨语言自然语言推理任务,在评估集上达到68.08%准确率和67.42% F1分数。模型可应用于日语主题分类、跨语言蕴含关系判断等自然语言处理任务,为日语NLP应用提供了有力支持。
nli-MiniLM2-L6-H768 - 基于MiniLM2的自然语言推理跨编码器模型
零样本分类模型自然语言推理SentenceTransformersGithubMiniLMv2开源项目HuggingfaceCrossEncoder
nli-MiniLM2-L6-H768是一个基于SentenceTransformers框架的跨编码器模型,专门用于自然语言推理任务。该模型在SNLI和MultiNLI数据集上训练,可以对给定的句子对判断矛盾、蕴含和中性三种语义关系。除了传统的NLI任务,它还支持零样本分类,适用范围广泛。模型采用紧凑的MiniLM2结构,在保持准确性的同时提供了良好的性能。
roberta-base-zeroshot-v2.0-c - 商用优化的零样本文本分类工具
Huggingface商业友好数据开源项目模型zeroshot分类Hugging FaceGithub自然语言推理模型训练
该系列模型专为Hugging Face平台优化,支持在GPU和CPU上进行零样本分类,无需预先训练数据。最近的改进包括基于商业友好的数据集训练,能满足严苛的许可条件。roberta和deberta系列以合理的准确性和速度满足不同需求,可用于多种语言和大范围文本输入,非常适合全球多样化的应用场景。最新的模型更新可在Zeroshot Classifier Collection中查阅,确保多种使用环境下的合规性。
scandi-nli-large - 北欧语言自然语言推理模型的性能分析
丹麦语Github开源项目挪威语自然语言推理HuggingfaceScandiNLI瑞典语模型
该模型针对丹麦语、挪威语和瑞典语进行了自然语言推理微调,适用于零样本分类任务,拥有多个版本。大模型在语言任务中成绩突出,MCC为73.70%,F1分数为74.44%,准确率达83.91%。基于NbAiLab/nb-bert-large模型,并综合多语言NLI数据集进行训练,实现了对北欧语言的全面支持,适用于多语言自然语言处理。
bert-base-spanish-wwm-cased-xnli - 基于XNLI数据集的西班牙语零样本分类模型
开源项目XNLIBERT零样本分类PyTorch模型HuggingfaceGithub自然语言推理
这是一个基于西班牙语BERT模型,通过XNLI数据集微调的零样本分类模型,在测试集上达到79.9%的准确率。该模型可通过Hugging Face平台实现西班牙语文本的多类别分类,支持自定义标签。模型基于MIT许可证开源,适用于文本分类的研究与应用开发。
bge-m3-zeroshot-v2.0 - BGE-M3基于零样本学习的多语言文本分类模型
HuggingfaceGithub文本分类自然语言推理开源项目zeroshot分类模型商业友好数据多语言模型
bge-m3-zeroshot-v2.0模型基于BAAI/bge-m3-retromae开发,是一款高效的零样本文本分类器。该模型支持多语言处理,可接受长达8192个tokens的输入。通过自然语言推理训练,无需微调即可执行各类分类任务。模型分为商业友好版(-c)和学术研究版,在28个分类任务中表现优异。适用于需要灵活文本分类解决方案的场景,支持GPU和CPU部署。
luke-japanese-base-finetuned-jnli - 日本语自然语言推理优化模型
实体自注意机制LUKEHuggingfaceyahoo japan/JGLUEGithub开源项目自然语言推理模型transformers
该项目是LUKE的日本语言版本,利用Yahoo Japan的JGLUE JNLI数据集进行优化调整。模型具备89.77%的准确率,用于计算文本关系(矛盾、中立、蕴含)并适用于自然语言推理任务。通过安装Transformers和SentencePiece库,可快速测试和应用于多语言自然语言处理项目。
nli-roberta-base - 用于自然语言推理与零样本分类的跨编码器
Github模型开源项目Zero-Shot 分类Cross-EncoderHuggingface训练数据自然语言推理模型性能
此模型使用SentenceTransformers中的Cross-Encoder类开发,专用于自然语言推理(NLI),通过SNLI和MultiNLI数据集训练,可输出矛盾、蕴含及中立标签分数。预训练模型兼容零样本分类,便于通过SentenceTransformers或Transformers库应用于多种文本推理与分类场景。
nli-deberta-v3-xsmall - 使用DeBERTa模型实现自然语言推理与零样本分类
SNLI开源项目Cross-Encoderzero-shot分类模型HuggingfaceMultiNLIGithub自然语言推理
该模型通过Cross-Encoder技术训练,基于microsoft/deberta-v3-xsmall,实现自然语言推理及零样本分类。其使用SNLI和MultiNLI数据进行训练,表现为:SNLI测试集91.64%的准确率,MNLI错配集87.77%的准确率。模型能识别句对的矛盾、蕴涵和中立标签,支持Python和Transformers库的调用,便于在多场景中应用。详细信息请参阅文档以提升项目中的自然语言处理效果。
xlm-v-base - 多语言模型中的突破性词汇扩展
XLM-V开源项目词汇瓶颈命名实体识别模型多语言HuggingfaceGithub自然语言推理
XLM-V是一个多语言模型,拥有百万词汇表,并在2.5TB数据上进行训练。相比于XLM-R,该模型在语言推理、问答与命名实体识别等任务中表现优异。通过减少语言间的词汇共享,这一创新提高了模型的表现,尤其在词汇重叠较少的语言中。XLM-V不仅提高跨语言任务的效果,也在低资源任务中实现重大突破,为机器学习和语言研究带来更多可能性。
roberta-large-snli_mnli_fever_anli_R1_R2_R3-nli - 基于RoBERTa-Large的多数据集自然语言推理模型
SNLIRoBERTa模型Github开源项目自然语言推理预训练模型MNLIHuggingface
基于RoBERTa-Large架构的自然语言推理模型,通过SNLI、MNLI、FEVER-NLI和ANLI等数据集训练而成。模型用于判断文本间的蕴含关系,输出包括推理(entailment)、中性(neutral)和矛盾(contradiction)三种类别。支持使用Transformers库进行API调用,可进行批量数据处理。
multilingual-MiniLMv2-L6-mnli-xnli - 轻量级多语言自然语言推理与分类模型
多语言翻译MiniLMv2机器学习零样本分类HuggingfaceGithub开源项目自然语言推理模型
MiniLMv2是一款支持100多种语言的自然语言推理模型,采用知识蒸馏技术从XLM-RoBERTa-large模型优化而来。经过XNLI和MNLI数据集的微调训练,该模型在XNLI测试集达到71.3%的平均准确率。相比原始模型,具备更低的资源消耗和更快的运行速度,适合跨语言迁移学习应用。
deberta-v3-large-zeroshot-v1 - 强大高效的零样本文本分类能力
模型训练零样本分类模型Github开源项目DeBERTa-v3自然语言推理文本分类Huggingface
模型适用于零样本分类,通过将文本分类任务转换为'真假'判定任务达到自然语言推理效果。使用Hugging Face pipeline实现,较现有模型表现优异。基于27项任务和310类文本进行训练,专注'Entailment'与'Not_Entailment'的二分类,且在多种文本分类场景中表现灵活。模型为开源,受到MIT许可证保护。
deberta-v3-large-tasksource-nli - 自然语言推理的多任务学习模型,提升零样本分类性能
Transformer零样本分类DeBERTa-v3-large多任务学习模型Github开源项目自然语言推理Huggingface
DeBERTa-v3-large采用多任务学习,涵盖600多项任务,提升零样本分类性能。模型在多个数据集进行了训练,适用于自然语言推理与分类。其共享的编码器和特定CLS嵌入在多种分类任务中展现出色表现,在未调优状态下于WNLI和MNLI中分别达到了77%和90%的准确率,适合科研与实际应用。
t5-base-summarization-claim-extractor - 从摘要中提取基本论断,提高信息准确性评估
T5-base-summarization-claim-extractor主张提取开源项目机器学习模型摘要真实性评估模型HuggingfaceGithub自然语言推理
T5-base-summarization-claim-extractor基于T5架构,专注于从摘要中提取基本论断。该模型属于FENICE项目的一部分,通过自然语言推理和论断提取来评估摘要的真实性。它能有效提高总结中的信息准确性,但仅支持英文文本。结合其他工具使用,这一模型有助于增强文本摘要的可靠性,同时为机器学习和自然语言处理领域提供了重要支持。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号