#零样本分类

gpt-j-api - 与GPT-J语言模型互动的文本生成和多语言分类API
gpt-j-apiAPI端点GPT-J文本生成零样本分类Github开源项目
介绍了通过API与GPT-J语言模型进行互动,支持文本生成和多语言文本分类,包括Python和Bash示例、公开API接口、Streamlit应用和独立API文档。提供了在TPU VM上设置服务器和部署Streamlit仪表板的详细指南。
ImageBind - 跨模态AI模型实现六种感官数据的统一嵌入
ImageBind多模态嵌入跨模态检索零样本分类CVPR 2023Github开源项目
ImageBind是由Meta AI研发的AI模型,可将图像、文本、音频、深度、热感和IMU数据统一到单一嵌入空间。该模型支持跨模态检索、模态组合运算、检测和生成等应用,在多个零样本分类任务中表现良好。ImageBind为多模态AI研究提供了新思路,研究者可通过其开源的PyTorch实现和预训练模型进行进一步探索。
ULIP - 多模态预训练框架实现3D数据理解
ULIP3D理解多模态预训练点云分类零样本分类Github开源项目
ULIP是一种多模态预训练框架,集成了语言、图像和点云数据以增强3D理解能力。该框架适用于多种3D骨干网络,如Pointnet2和PointBERT等,无需增加处理延迟。ULIP-2在此基础上进行了扩展,提高了预训练的可扩展性。项目开源了预训练模型、数据集和使用指南,为3D数据分析奠定了基础。
OpenShape_code - 革新3D形状表示方法 实现开放世界理解
OpenShape3D形状表示开放世界理解零样本分类多模态检索Github开源项目
该项目开发了新型3D形状表示方法,通过大规模训练实现开放世界理解。这一技术在零样本3D形状分类、检索和语义理解任务中表现优异,支持多模态交互并能进行点云描述和图像生成。提供的在线演示、预训练模型和训练代码为3D视觉研究与应用拓展了新方向。
Uni3D - 突破性统一3D表示学习框架
Uni3D3D表示零样本分类预训练点云Github开源项目
Uni3D是一个创新的3D预训练框架,致力于大规模3D表示学习。该框架采用2D预训练模型初始化,通过端到端训练实现3D点云与图像-文本特征对齐。Uni3D凭借简洁架构和高效预训练,成功将模型规模扩展至10亿参数,在多项3D任务中取得突破性进展,展现了将2D深度学习优势迁移至3D领域的巨大潜力。
Long-CLIP - CLIP模型长文本处理能力升级 显著提升图像检索效果
Long-CLIPCLIP文本-图像检索零样本分类AI模型Github开源项目
Long-CLIP项目将CLIP模型的最大输入长度从77扩展到248,大幅提升了长文本图像检索性能。在长标题文本-图像检索任务中,R@5指标提高20%;传统文本-图像检索提升6%。这一改进可直接应用于需要长文本处理能力的各类任务,为图像检索和生成领域带来显著进展。
LanguageBind - 通过语言绑定实现跨模态语义对齐
LanguageBind多模态预训练视频语言零样本分类Github开源项目
LanguageBind是一种基于语言的多模态预训练方法,通过语言将不同模态进行语义关联。该方法引入了VIDAL-10M数据集,包含1000万条视频、红外、深度、音频及对应语言数据。通过多视角增强的语言描述训练,LanguageBind在多个跨模态任务上实现了先进性能,无需中间模态即可完成跨模态语义对齐。
Mutable.ai - 智能代码文档生成平台
AI工具AI专家代码库机器学习框架张量操作零样本分类
Mutable.ai是一个基于人工智能的代码文档生成平台,自动分析代码结构并生成详细文档和Wiki。平台可回答复杂的代码相关问题,如多框架支持和文件功能。它旨在优化开发流程,提升团队效率,让开发者专注于核心编码工作,减少手动编写文档的时间。
chinese-clip-vit-large-patch14 - 结合ViT-L/14和RoBERTa-wwm-base的中文图文对比模型
Chinese-CLIP图文相似度开源项目模型GithubHuggingface图像编码器零样本分类文本编码器
这一模型采用ViT-L/14和RoBERTa-wwm-base进行编码,在大规模中文图文数据集上训练,支持高效的图文嵌入和相似度计算。项目提供直观的API和多项任务评估,展现了在零样本图像分类和图文检索上的杰出表现。
clap-htsat-unfused - CLAP音频-文本预训练模型实现零样本音频分类
音频嵌入Huggingface模型多模态学习语音识别CLAPGithub开源项目零样本分类
CLAP是一个基于对比学习的音频-文本预训练模型,利用LAION-Audio-630K数据集进行训练。该模型通过特征融合和关键词增强技术,能够处理不同长度的音频输入,在文本到音频检索、零样本音频分类等任务中表现优异。CLAP在零样本设置下达到了领先水平,可用于零样本音频分类或音频和文本特征提取。
bart-large-mnli - 基于BART的NLI模型实现零样本多领域文本分类
零样本分类模型自然语言推理多语言自然语言推理GithubBARTHugging FaceHuggingface开源项目
bart-large-mnli是一个在MNLI数据集上微调的BART模型,可用于零样本文本分类。它通过将待分类文本作为前提,候选标签作为假设,实现灵活的多领域分类。支持多标签分类,可通过Hugging Face pipeline或PyTorch使用。该模型为NLP任务提供了一种简单有效的分类方法,无需针对特定领域进行训练。
nli-deberta-v3-base - 基于DeBERTa-v3的自然语言推理模型
Cross-EncoderDeBERTa零样本分类自然语言推理模型SentenceTransformersGithubHuggingface开源项目
nli-deberta-v3-base是一个基于DeBERTa-v3的自然语言推理模型,通过SNLI和MultiNLI数据集训练而成。它能够分析句子对之间的关系,输出矛盾、蕴含和中性三种标签的概率分布。在SNLI测试集和MNLI不匹配集上,该模型分别达到了92.38%和90.04%的准确率。用户可以借助SentenceTransformers或Transformers库轻松调用此模型,同时它还支持零样本分类任务。
mDeBERTa-v3-base-mnli-xnli - 支持100种语言的零样本分类和自然语言推理模型
模型多语言模型零样本分类开源项目HuggingfaceXNLI数据集自然语言推理mDeBERTa-v3Github
mDeBERTa-v3-base-mnli-xnli是一个支持100种语言的自然语言推理模型。它在XNLI和MNLI数据集上进行微调,在15种语言的XNLI测试集上达到80.8%的平均准确率。该模型可用于零样本分类和NLI任务,为多语言NLP应用提供了有效解决方案。模型基于Microsoft的mDeBERTa-v3架构,在CC100多语言数据集上预训练。
clip-ViT-B-32-multilingual-v1 - CLIP-ViT-B-32多语言模型实现文本图像向量映射和跨语言搜索
Huggingface模型Github图像搜索开源项目sentence-transformersCLIP多语言模型零样本分类
CLIP-ViT-B-32-multilingual-v1是OpenAI CLIP-ViT-B32模型的多语言拓展版本。该模型能将50多种语言的文本和图像映射到同一向量空间,支持多语言图像搜索和零样本图像分类。通过sentence-transformers库,用户可以方便地使用该模型。模型采用多语言知识蒸馏技术,将CLIP原始向量空间对齐到多语言空间。这为跨语言图像搜索和理解提供了有力支持,是图像-文本多语言处理的有效工具。
rubert-base-cased-nli-threeway - 开源俄语NLP模型:支持自然语言推理与零样本分类
模型NLIBERT零样本分类开源项目Huggingface自然语言推理Github俄语
这是一个基于DeepPavlov/rubert-base-cased微调的开源俄语NLP模型。它能够预测短文本间的逻辑关系(蕴含、矛盾或中性),支持自然语言推理和零样本文本分类任务。该模型在多个俄语NLI数据集上训练,并在各种评估集上展现出优秀性能。其多功能性和高效表现使其成为处理俄语文本理解任务的有力工具。
DeBERTa-v3-large-mnli-fever-anli-ling-wanli - 多数据集微调的自然语言推理模型 实现零样本分类和NLI任务
模型模型训练零样本分类DeBERTa-v3-large开源项目Huggingface自然语言推理Github文本分类
DeBERTa-v3-large-mnli-fever-anli-ling-wanli模型在多个自然语言推理数据集上进行了微调。该模型在ANLI基准测试中表现优异,是Hugging Face Hub上性能领先的NLI模型。它支持零样本分类,并在MultiNLI、ANLI、LingNLI和WANLI等数据集上达到了先进水平。这个基于Microsoft DeBERTa-v3-large的模型整合了多项创新技术,为自然语言理解任务提供了有效解决方案。
DeBERTa-v3-xsmall-mnli-fever-anli-ling-binary - 基于DeBERTa-v3的高性能自然语言推理模型
零样本分类DeBERTa自然语言推理模型文本分类Github开源项目Huggingface机器学习
DeBERTa-v3-xsmall-mnli-fever-anli-ling-binary是一个专为零样本分类优化的自然语言推理模型。该模型基于DeBERTa-v3-xsmall架构,通过78万多个假设-前提对进行训练,在多个NLI数据集上展现出优异性能,最高准确率达92.5%。模型不仅推理速度快,还易于使用Hugging Face Transformers库部署,适用于需要高效文本分类的各种应用场景。
distilbert-base-uncased-mnli - DistilBERT零样本文本分类模型在MNLI数据集上的应用
Huggingface零样本分类模型机器学习GithubDistilBERT开源项目文本分类自然语言推理
DistilBERT零样本文本分类模型在MNLI数据集上微调,适用于多种英语文本分类任务。模型在MNLI和MNLI-mm评估中均达82.0%准确率,展现出优秀性能。虽然使用简便,但需注意潜在偏见问题。模型由Typeform团队开发,在AWS EC2 P3实例上训练。该模型为自然语言处理领域提供了有力工具,同时也引发了对AI公平性的思考。
deberta-small-long-nli - DeBERTa-v3微调长文本自然语言推理模型
DeBERTa-v3-small自然语言推理Huggingface多任务学习模型Github开源项目文本分类零样本分类
这是一个基于DeBERTa-v3-small在250多个NLP任务上微调的长文本自然语言推理模型。支持1680个token的上下文长度,在多项NLI基准测试中表现优异。可用于零样本分类、自然语言推理及下游任务微调。在逻辑推理、概率推理和长文本NLI等任务上性能出色,是一个功能强大的NLP工具。
xlm-roberta-large-xnli - XLM-RoBERTa基于XNLI的多语言零样本文本分类模型
零样本分类模型自然语言推理多语言文本分类XLM-RoBERTaGithubHuggingface开源项目
xlm-roberta-large-xnli是一个基于XLM-RoBERTa大型模型微调的多语言自然语言推理模型。该模型支持15种语言的零样本文本分类,包括英语、法语和西班牙语等。经过XNLI数据集训练后,模型可用于跨语言文本分类任务。它提供简单的pipeline接口,便于进行多语言零样本分类。此模型适用于需要在多种语言中进行文本分类的应用场景,尤其适合非英语语言的分类任务。
metaclip-h14-fullcc2.5b - 大规模视觉语言模型基于25亿CommonCrawl数据训练
零样本分类模型计算机视觉MetaCLIP多模态学习GithubHuggingface开源项目自然语言处理
MetaCLIP是一个基于25亿CommonCrawl数据点训练的大规模视觉语言模型。该模型由Xu等人在《Demystifying CLIP Data》论文中提出,旨在解析CLIP的数据准备流程。MetaCLIP支持图像与文本的联合嵌入,可应用于零样本图像分类、文本图像检索等任务。作为一个开源项目,MetaCLIP为研究人员提供了探索大规模视觉语言模型的新方向,有助于推进计算机视觉和自然语言处理领域的发展。
clip-rsicd-v2 - 专为遥感图像优化的零样本分类和检索模型
TransformerHuggingface模型遥感图像Github开源项目图像检索CLIP零样本分类
clip-rsicd-v2是一个基于CLIP的微调模型,专注于提升遥感图像的零样本分类和检索能力。该模型采用ViT-B/32架构和掩码自注意力Transformer分别作为图像和文本编码器。通过在RSICD、UCM和Sydney等遥感数据集上训练,clip-rsicd-v2在多项检索任务中显著超越原始CLIP模型。研究人员可利用此模型深入探究计算机视觉模型的鲁棒性和泛化能力。
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 - mDeBERTa-v3模型实现多语言自然语言推理和零样本分类
零样本分类模型自然语言推理多语言mDeBERTa-v3Github开源项目Huggingface机器学习
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7是一个支持100种语言的自然语言推理和零样本分类模型。它基于mDeBERTa-v3-base架构,通过XNLI和multilingual-NLI-26lang-2mil7数据集微调,包含27种语言的270多万个文本对。该模型在XNLI和英语NLI测试中表现优异,展现出卓越的跨语言迁移能力,为多语言NLP任务提供了强大解决方案。
nli-distilroberta-base - DistilRoBERTa自然语言推理跨编码器模型
零样本分类模型自然语言推理SentenceTransformers跨编码器Github开源项目Huggingfacedistilroberta-base
nli-distilroberta-base是一个基于DistilRoBERTa的自然语言推理模型。该模型在SNLI和MultiNLI数据集上训练,能够判断句子对之间的矛盾、蕴含和中性关系。除了自然语言推理,它还支持零样本文本分类。模型可通过SentenceTransformers或Transformers库轻松集成,适用于多种自然语言处理应用。
larger_clap_general - CLAP音频-文本预训练模型 实现零样本音频分类和特征提取
模型CLAP零样本分类开源项目Huggingface音频处理机器学习语音识别Github
larger_clap_general是一个优化的CLAP(对比语言-音频预训练)模型,针对通用音频、音乐和语音进行训练。该模型结合SWINTransformer和RoBERTa分别处理音频和文本信息,适用于零样本音频分类和音频/文本特征提取。它能够在不针对特定任务优化的情况下,预测与给定音频最相关的文本描述,广泛应用于音频分类等多个领域。
deberta-v3-large-zeroshot-v2.0 - DeBERTa-v3-large基于自然语言推理的零样本分类模型
模型Github零样本分类开源项目Huggingface自然语言推理商业友好DeBERTa文本分类
deberta-v3-large-zeroshot-v2.0是基于DeBERTa-v3-large的零样本分类模型,通过自然语言推理任务训练。无需训练数据即可执行多种文本分类任务,适用于GPU和CPU。在28个分类任务上表现优异,支持灵活的假设模板。模型提供高效通用的分类能力,适用于商业和学术场景,是一个强大的零样本分类工具。
deberta-v3-base-tasksource-nli - DeBERTa-v3多任务学习模型用于零样本分类与推理
模型多任务学习DeBERTa-v3-base零样本分类开源项目Huggingface自然语言推理tasksourceGithub
该模型基于DeBERTa-v3-base架构,通过多任务学习在600多个任务上微调而来。模型在零样本验证中表现优异,适用于零样本分类、自然语言推理等多种任务。它支持灵活的分类和推理pipeline,并可通过tasksource-adapters轻松访问数百个预训练任务。在IBM模型回收评估中排名第一,显示出广泛的应用前景。
mDeBERTa-v3-base-finetuned-nli-jnli - 基于多语言NLI和JGLUE数据集微调的日语NLP模型
Huggingface零样本分类模型Github开源项目mDeBERTa-v3微调多语言模型自然语言推理
该模型基于微软mdeberta-v3-base在多语言NLI和JGLUE数据集上微调而来。它支持日语零样本文本分类和跨语言自然语言推理任务,在评估集上达到68.08%准确率和67.42% F1分数。模型可应用于日语主题分类、跨语言蕴含关系判断等自然语言处理任务,为日语NLP应用提供了有力支持。
distilbert-base-uncased-go-emotions-onnx - 优化为ONNX格式的轻量级情感分析模型
模型量化模型情感分析Github零样本分类开源项目Huggingface自然语言处理ONNX
该模型是基于distilbert-base-uncased架构,通过零样本蒸馏技术在GoEmotions数据集上训练的情感分类工具。经ONNX格式转换和量化处理,模型性能得到显著提升。这一创新方法展示了如何将复杂的NLI零样本模型简化为高效的学生模型,实现了仅依靠未标记数据即可训练分类器的技术突破。尽管在精度上可能略逊于全监督模型,但为处理无标签数据的情感分析任务提供了实用解决方案。
nli-MiniLM2-L6-H768 - 基于MiniLM2的自然语言推理跨编码器模型
零样本分类模型自然语言推理SentenceTransformersGithubMiniLMv2开源项目HuggingfaceCrossEncoder
nli-MiniLM2-L6-H768是一个基于SentenceTransformers框架的跨编码器模型,专门用于自然语言推理任务。该模型在SNLI和MultiNLI数据集上训练,可以对给定的句子对判断矛盾、蕴含和中性三种语义关系。除了传统的NLI任务,它还支持零样本分类,适用范围广泛。模型采用紧凑的MiniLM2结构,在保持准确性的同时提供了良好的性能。
deberta-v3-base-zeroshot-v1.1-all-33 - DeBERTa-v3通用零样本分类模型支持387种文本分类场景
文本分类自然语言推理机器学习GithubHuggingface零样本分类开源项目模型DeBERTa-v3
DeBERTa-v3基础模型通过自然语言推理技术实现通用文本分类。经过387个分类任务训练后,可直接应用于情感分析、主题识别、内容审核等场景,平均准确率84%。采用pipeline接口,无需针对新任务重新训练即可使用。
distilbart-mnli-github-issues - 利用零样本分类优化GitHub问题分类
GitHub issues classifier转换器BART-large-mnli零样本分类模型Github开源项目文本分类Huggingface
本项目使用零样本分类技术,通过distilbart-mnli模型有效分类GitHub问题,辅以BART-large-mnli教师模型指导,识别特性请求、错误等问题类型,预测一致性达94.82%。该NLP解决方案提升分类准确度,支持自定义训练,适合客户服务和技术支持。项目还提供详细的训练数据与模型选择说明,为用户提供清晰的指导和实际应用案例。
deberta-v3-xsmall-zeroshot-v1.1-all-33 - 面向边缘设备的轻量级零样本文本分类模型
Huggingface开源项目模型文本分类DeBERTaGithub模型微调自然语言处理零样本分类
DeBERTa-v3-xsmall的零样本文本分类衍生模型,主干参数2200万,词汇参数1.28亿,总大小142MB。针对边缘设备场景优化,支持浏览器端部署。模型在情感分析、主题分类等33个数据集评估中表现稳定,多数任务准确率达80%以上,适合资源受限场景下的快速文本分类应用。
bert-base-spanish-wwm-cased-xnli - 基于XNLI数据集的西班牙语零样本分类模型
开源项目XNLIBERT零样本分类PyTorch模型HuggingfaceGithub自然语言推理
这是一个基于西班牙语BERT模型,通过XNLI数据集微调的零样本分类模型,在测试集上达到79.9%的准确率。该模型可通过Hugging Face平台实现西班牙语文本的多类别分类,支持自定义标签。模型基于MIT许可证开源,适用于文本分类的研究与应用开发。
multilingual-MiniLMv2-L6-mnli-xnli - 轻量级多语言自然语言推理与分类模型
多语言翻译MiniLMv2机器学习零样本分类HuggingfaceGithub开源项目自然语言推理模型
MiniLMv2是一款支持100多种语言的自然语言推理模型,采用知识蒸馏技术从XLM-RoBERTa-large模型优化而来。经过XNLI和MNLI数据集的微调训练,该模型在XNLI测试集达到71.3%的平均准确率。相比原始模型,具备更低的资源消耗和更快的运行速度,适合跨语言迁移学习应用。
deberta-v3-large-zeroshot-v1 - 强大高效的零样本文本分类能力
模型训练零样本分类模型Github开源项目DeBERTa-v3自然语言推理文本分类Huggingface
模型适用于零样本分类,通过将文本分类任务转换为'真假'判定任务达到自然语言推理效果。使用Hugging Face pipeline实现,较现有模型表现优异。基于27项任务和310类文本进行训练,专注'Entailment'与'Not_Entailment'的二分类,且在多种文本分类场景中表现灵活。模型为开源,受到MIT许可证保护。