#零样本分类
gpt-j-api - 与GPT-J语言模型互动的文本生成和多语言分类API
Github开源项目文本生成GPT-JAPI端点gpt-j-api零样本分类
介绍了通过API与GPT-J语言模型进行互动,支持文本生成和多语言文本分类,包括Python和Bash示例、公开API接口、Streamlit应用和独立API文档。提供了在TPU VM上设置服务器和部署Streamlit仪表板的详细指南。
ImageBind - 跨模态AI模型实现六种感官数据的统一嵌入
Github开源项目ImageBind跨模态检索CVPR 2023零样本分类多模态嵌入
ImageBind是由Meta AI研发的AI模型,可将图像、文本、音频、深度、热感和IMU数据统一到单一嵌入空间。该模型支持跨模态检索、模态组合运算、检测和生成等应用,在多个零样本分类任务中表现良好。ImageBind为多模态AI研究提供了新思路,研究者可通过其开源的PyTorch实现和预训练模型进行进一步探索。
ULIP - 多模态预训练框架实现3D数据理解
Github开源项目零样本分类ULIP点云分类3D理解多模态预训练
ULIP是一种多模态预训练框架,集成了语言、图像和点云数据以增强3D理解能力。该框架适用于多种3D骨干网络,如Pointnet2和PointBERT等,无需增加处理延迟。ULIP-2在此基础上进行了扩展,提高了预训练的可扩展性。项目开源了预训练模型、数据集和使用指南,为3D数据分析奠定了基础。
OpenShape_code - 革新3D形状表示方法 实现开放世界理解
Github开源项目零样本分类OpenShape3D形状表示开放世界理解多模态检索
该项目开发了新型3D形状表示方法,通过大规模训练实现开放世界理解。这一技术在零样本3D形状分类、检索和语义理解任务中表现优异,支持多模态交互并能进行点云描述和图像生成。提供的在线演示、预训练模型和训练代码为3D视觉研究与应用拓展了新方向。
Uni3D - 突破性统一3D表示学习框架
Github开源项目预训练点云零样本分类Uni3D3D表示
Uni3D是一个创新的3D预训练框架,致力于大规模3D表示学习。该框架采用2D预训练模型初始化,通过端到端训练实现3D点云与图像-文本特征对齐。Uni3D凭借简洁架构和高效预训练,成功将模型规模扩展至10亿参数,在多项3D任务中取得突破性进展,展现了将2D深度学习优势迁移至3D领域的巨大潜力。
Long-CLIP - CLIP模型长文本处理能力升级 显著提升图像检索效果
Github开源项目AI模型CLIP零样本分类Long-CLIP文本-图像检索
Long-CLIP项目将CLIP模型的最大输入长度从77扩展到248,大幅提升了长文本图像检索性能。在长标题文本-图像检索任务中,R@5指标提高20%;传统文本-图像检索提升6%。这一改进可直接应用于需要长文本处理能力的各类任务,为图像检索和生成领域带来显著进展。
LanguageBind - 通过语言绑定实现跨模态语义对齐
Github开源项目预训练多模态零样本分类LanguageBind视频语言
LanguageBind是一种基于语言的多模态预训练方法,通过语言将不同模态进行语义关联。该方法引入了VIDAL-10M数据集,包含1000万条视频、红外、深度、音频及对应语言数据。通过多视角增强的语言描述训练,LanguageBind在多个跨模态任务上实现了先进性能,无需中间模态即可完成跨模态语义对齐。
Mutable.ai - 智能代码文档生成平台
AI工具代码库机器学习框架AI专家零样本分类张量操作
Mutable.ai是一个基于人工智能的代码文档生成平台,自动分析代码结构并生成详细文档和Wiki。平台可回答复杂的代码相关问题,如多框架支持和文件功能。它旨在优化开发流程,提升团队效率,让开发者专注于核心编码工作,减少手动编写文档的时间。
chinese-clip-vit-large-patch14 - 结合ViT-L/14和RoBERTa-wwm-base的中文图文对比模型
Github开源项目模型HuggingfaceChinese-CLIP零样本分类图像编码器文本编码器图文相似度
这一模型采用ViT-L/14和RoBERTa-wwm-base进行编码,在大规模中文图文数据集上训练,支持高效的图文嵌入和相似度计算。项目提供直观的API和多项任务评估,展现了在零样本图像分类和图文检索上的杰出表现。
rubert-base-cased-nli-threeway - 开源俄语NLP模型:支持自然语言推理与零样本分类
Github开源项目BERT模型Huggingface零样本分类俄语自然语言推理NLI
这是一个基于DeepPavlov/rubert-base-cased微调的开源俄语NLP模型。它能够预测短文本间的逻辑关系(蕴含、矛盾或中性),支持自然语言推理和零样本文本分类任务。该模型在多个俄语NLI数据集上训练,并在各种评估集上展现出优秀性能。其多功能性和高效表现使其成为处理俄语文本理解任务的有力工具。
DeBERTa-v3-large-mnli-fever-anli-ling-wanli - 多数据集微调的自然语言推理模型 实现零样本分类和NLI任务
Github开源项目模型训练模型Huggingface文本分类零样本分类自然语言推理DeBERTa-v3-large
DeBERTa-v3-large-mnli-fever-anli-ling-wanli模型在多个自然语言推理数据集上进行了微调。该模型在ANLI基准测试中表现优异,是Hugging Face Hub上性能领先的NLI模型。它支持零样本分类,并在MultiNLI、ANLI、LingNLI和WANLI等数据集上达到了先进水平。这个基于Microsoft DeBERTa-v3-large的模型整合了多项创新技术,为自然语言理解任务提供了有效解决方案。
DeBERTa-v3-xsmall-mnli-fever-anli-ling-binary - 基于DeBERTa-v3的高性能自然语言推理模型
Github开源项目机器学习模型DeBERTaHuggingface文本分类零样本分类自然语言推理
DeBERTa-v3-xsmall-mnli-fever-anli-ling-binary是一个专为零样本分类优化的自然语言推理模型。该模型基于DeBERTa-v3-xsmall架构,通过78万多个假设-前提对进行训练,在多个NLI数据集上展现出优异性能,最高准确率达92.5%。模型不仅推理速度快,还易于使用Hugging Face Transformers库部署,适用于需要高效文本分类的各种应用场景。
distilbert-base-uncased-mnli - DistilBERT零样本文本分类模型在MNLI数据集上的应用
Github开源项目机器学习模型Huggingface文本分类零样本分类DistilBERT自然语言推理
DistilBERT零样本文本分类模型在MNLI数据集上微调,适用于多种英语文本分类任务。模型在MNLI和MNLI-mm评估中均达82.0%准确率,展现出优秀性能。虽然使用简便,但需注意潜在偏见问题。模型由Typeform团队开发,在AWS EC2 P3实例上训练。该模型为自然语言处理领域提供了有力工具,同时也引发了对AI公平性的思考。
deberta-small-long-nli - DeBERTa-v3微调长文本自然语言推理模型
Github开源项目模型Huggingface文本分类多任务学习零样本分类自然语言推理DeBERTa-v3-small
这是一个基于DeBERTa-v3-small在250多个NLP任务上微调的长文本自然语言推理模型。支持1680个token的上下文长度,在多项NLI基准测试中表现优异。可用于零样本分类、自然语言推理及下游任务微调。在逻辑推理、概率推理和长文本NLI等任务上性能出色,是一个功能强大的NLP工具。
xlm-roberta-large-xnli - XLM-RoBERTa基于XNLI的多语言零样本文本分类模型
Github开源项目多语言模型Huggingface文本分类零样本分类XLM-RoBERTa自然语言推理
xlm-roberta-large-xnli是一个基于XLM-RoBERTa大型模型微调的多语言自然语言推理模型。该模型支持15种语言的零样本文本分类,包括英语、法语和西班牙语等。经过XNLI数据集训练后,模型可用于跨语言文本分类任务。它提供简单的pipeline接口,便于进行多语言零样本分类。此模型适用于需要在多种语言中进行文本分类的应用场景,尤其适合非英语语言的分类任务。
metaclip-h14-fullcc2.5b - 大规模视觉语言模型基于25亿CommonCrawl数据训练
Github开源项目自然语言处理多模态学习计算机视觉模型Huggingface零样本分类MetaCLIP
MetaCLIP是一个基于25亿CommonCrawl数据点训练的大规模视觉语言模型。该模型由Xu等人在《Demystifying CLIP Data》论文中提出,旨在解析CLIP的数据准备流程。MetaCLIP支持图像与文本的联合嵌入,可应用于零样本图像分类、文本图像检索等任务。作为一个开源项目,MetaCLIP为研究人员提供了探索大规模视觉语言模型的新方向,有助于推进计算机视觉和自然语言处理领域的发展。
clip-rsicd-v2 - 专为遥感图像优化的零样本分类和检索模型
Github开源项目Transformer模型CLIPHuggingface零样本分类图像检索遥感图像
clip-rsicd-v2是一个基于CLIP的微调模型,专注于提升遥感图像的零样本分类和检索能力。该模型采用ViT-B/32架构和掩码自注意力Transformer分别作为图像和文本编码器。通过在RSICD、UCM和Sydney等遥感数据集上训练,clip-rsicd-v2在多项检索任务中显著超越原始CLIP模型。研究人员可利用此模型深入探究计算机视觉模型的鲁棒性和泛化能力。
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 - mDeBERTa-v3模型实现多语言自然语言推理和零样本分类
Github开源项目多语言机器学习模型Huggingface零样本分类自然语言推理mDeBERTa-v3
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7是一个支持100种语言的自然语言推理和零样本分类模型。它基于mDeBERTa-v3-base架构,通过XNLI和multilingual-NLI-26lang-2mil7数据集微调,包含27种语言的270多万个文本对。该模型在XNLI和英语NLI测试中表现优异,展现出卓越的跨语言迁移能力,为多语言NLP任务提供了强大解决方案。
nli-distilroberta-base - DistilRoBERTa自然语言推理跨编码器模型
Github开源项目模型Huggingface跨编码器零样本分类自然语言推理SentenceTransformersdistilroberta-base
nli-distilroberta-base是一个基于DistilRoBERTa的自然语言推理模型。该模型在SNLI和MultiNLI数据集上训练,能够判断句子对之间的矛盾、蕴含和中性关系。除了自然语言推理,它还支持零样本文本分类。模型可通过SentenceTransformers或Transformers库轻松集成,适用于多种自然语言处理应用。
larger_clap_general - CLAP音频-文本预训练模型 实现零样本音频分类和特征提取
Github开源项目语音识别机器学习模型音频处理Huggingface零样本分类CLAP
larger_clap_general是一个优化的CLAP(对比语言-音频预训练)模型,针对通用音频、音乐和语音进行训练。该模型结合SWINTransformer和RoBERTa分别处理音频和文本信息,适用于零样本音频分类和音频/文本特征提取。它能够在不针对特定任务优化的情况下,预测与给定音频最相关的文本描述,广泛应用于音频分类等多个领域。
deberta-v3-large-zeroshot-v2.0 - DeBERTa-v3-large基于自然语言推理的零样本分类模型
Github开源项目模型DeBERTaHuggingface文本分类零样本分类自然语言推理商业友好
deberta-v3-large-zeroshot-v2.0是基于DeBERTa-v3-large的零样本分类模型,通过自然语言推理任务训练。无需训练数据即可执行多种文本分类任务,适用于GPU和CPU。在28个分类任务上表现优异,支持灵活的假设模板。模型提供高效通用的分类能力,适用于商业和学术场景,是一个强大的零样本分类工具。
deberta-v3-base-tasksource-nli - DeBERTa-v3多任务学习模型用于零样本分类与推理
Github开源项目模型Huggingface多任务学习零样本分类自然语言推理DeBERTa-v3-basetasksource
该模型基于DeBERTa-v3-base架构,通过多任务学习在600多个任务上微调而来。模型在零样本验证中表现优异,适用于零样本分类、自然语言推理等多种任务。它支持灵活的分类和推理pipeline,并可通过tasksource-adapters轻松访问数百个预训练任务。在IBM模型回收评估中排名第一,显示出广泛的应用前景。
mDeBERTa-v3-base-finetuned-nli-jnli - 基于多语言NLI和JGLUE数据集微调的日语NLP模型
Github开源项目微调模型Huggingface多语言模型零样本分类自然语言推理mDeBERTa-v3
该模型基于微软mdeberta-v3-base在多语言NLI和JGLUE数据集上微调而来。它支持日语零样本文本分类和跨语言自然语言推理任务,在评估集上达到68.08%准确率和67.42% F1分数。模型可应用于日语主题分类、跨语言蕴含关系判断等自然语言处理任务,为日语NLP应用提供了有力支持。
distilbert-base-uncased-go-emotions-onnx - 优化为ONNX格式的轻量级情感分析模型
Github开源项目自然语言处理模型量化模型ONNX情感分析Huggingface零样本分类
该模型是基于distilbert-base-uncased架构,通过零样本蒸馏技术在GoEmotions数据集上训练的情感分类工具。经ONNX格式转换和量化处理,模型性能得到显著提升。这一创新方法展示了如何将复杂的NLI零样本模型简化为高效的学生模型,实现了仅依靠未标记数据即可训练分类器的技术突破。尽管在精度上可能略逊于全监督模型,但为处理无标签数据的情感分析任务提供了实用解决方案。
nli-MiniLM2-L6-H768 - 基于MiniLM2的自然语言推理跨编码器模型
Github开源项目模型Huggingface零样本分类自然语言推理SentenceTransformersMiniLMv2CrossEncoder
nli-MiniLM2-L6-H768是一个基于SentenceTransformers框架的跨编码器模型,专门用于自然语言推理任务。该模型在SNLI和MultiNLI数据集上训练,可以对给定的句子对判断矛盾、蕴含和中性三种语义关系。除了传统的NLI任务,它还支持零样本分类,适用范围广泛。模型采用紧凑的MiniLM2结构,在保持准确性的同时提供了良好的性能。
deberta-v3-base-zeroshot-v1.1-all-33 - DeBERTa-v3通用零样本分类模型支持387种文本分类场景
Github开源项目机器学习模型Huggingface文本分类零样本分类自然语言推理DeBERTa-v3
DeBERTa-v3基础模型通过自然语言推理技术实现通用文本分类。经过387个分类任务训练后,可直接应用于情感分析、主题识别、内容审核等场景,平均准确率84%。采用pipeline接口,无需针对新任务重新训练即可使用。
distilbart-mnli-github-issues - 利用零样本分类优化GitHub问题分类
Github开源项目模型Huggingface文本分类零样本分类转换器GitHub issues classifierBART-large-mnli
本项目使用零样本分类技术,通过distilbart-mnli模型有效分类GitHub问题,辅以BART-large-mnli教师模型指导,识别特性请求、错误等问题类型,预测一致性达94.82%。该NLP解决方案提升分类准确度,支持自定义训练,适合客户服务和技术支持。项目还提供详细的训练数据与模型选择说明,为用户提供清晰的指导和实际应用案例。
deberta-v3-xsmall-zeroshot-v1.1-all-33 - 面向边缘设备的轻量级零样本文本分类模型
Github开源项目自然语言处理模型微调模型DeBERTaHuggingface文本分类零样本分类
DeBERTa-v3-xsmall的零样本文本分类衍生模型,主干参数2200万,词汇参数1.28亿,总大小142MB。针对边缘设备场景优化,支持浏览器端部署。模型在情感分析、主题分类等33个数据集评估中表现稳定,多数任务准确率达80%以上,适合资源受限场景下的快速文本分类应用。
bert-base-spanish-wwm-cased-xnli - 基于XNLI数据集的西班牙语零样本分类模型
Github开源项目PyTorchBERT模型Huggingface零样本分类自然语言推理XNLI
这是一个基于西班牙语BERT模型,通过XNLI数据集微调的零样本分类模型,在测试集上达到79.9%的准确率。该模型可通过Hugging Face平台实现西班牙语文本的多类别分类,支持自定义标签。模型基于MIT许可证开源,适用于文本分类的研究与应用开发。
multilingual-MiniLMv2-L6-mnli-xnli - 轻量级多语言自然语言推理与分类模型
Github开源项目机器学习模型多语言翻译Huggingface零样本分类自然语言推理MiniLMv2
MiniLMv2是一款支持100多种语言的自然语言推理模型,采用知识蒸馏技术从XLM-RoBERTa-large模型优化而来。经过XNLI和MNLI数据集的微调训练,该模型在XNLI测试集达到71.3%的平均准确率。相比原始模型,具备更低的资源消耗和更快的运行速度,适合跨语言迁移学习应用。
deberta-v3-large-zeroshot-v1 - 强大高效的零样本文本分类能力
Github开源项目模型训练模型Huggingface文本分类零样本分类自然语言推理DeBERTa-v3
模型适用于零样本分类,通过将文本分类任务转换为'真假'判定任务达到自然语言推理效果。使用Hugging Face pipeline实现,较现有模型表现优异。基于27项任务和310类文本进行训练,专注'Entailment'与'Not_Entailment'的二分类,且在多种文本分类场景中表现灵活。模型为开源,受到MIT许可证保护。
deberta-v3-large-tasksource-nli - 自然语言推理的多任务学习模型,提升零样本分类性能
Github开源项目Transformer模型Huggingface多任务学习零样本分类自然语言推理DeBERTa-v3-large
DeBERTa-v3-large采用多任务学习,涵盖600多项任务,提升零样本分类性能。模型在多个数据集进行了训练,适用于自然语言推理与分类。其共享的编码器和特定CLS嵌入在多种分类任务中展现出色表现,在未调优状态下于WNLI和MNLI中分别达到了77%和90%的准确率,适合科研与实际应用。
omdet-turbo-swin-tiny-hf - 实时开放词汇目标检测模型 支持批量多任务处理
Github开源项目机器学习目标检测模型图像识别Huggingface零样本分类OmDet-Turbo
这是一款基于Transformer的开放词汇目标检测模型。它支持零样本检测,能够识别指定的任意类别目标。该模型的特色在于支持批量处理多张图像,允许为每张图像设置不同的检测类别和任务描述。通过简洁的API接口,该模型可以方便地集成到各种计算机视觉应用中,实现高效的实时目标检测。
distilbert-base-uncased-go-emotions-student - 面向GoEmotions数据集的高效情感分类模型
Github开源项目语言模型模型Huggingface文本分类零样本分类模型蒸馏GoEmotions
该模型运用未标注GoEmotions数据集,利用零样本学习技术进行精炼。尽管其性能可能略逊于完全监督下的模型,但它展示了如何将复杂的自然语言推理模型简化为高效的模型,以便在未标注数据上进行分类器训练。
相关文章