#特征提取
hrnet_w18.ms_aug_in1k - HRNet W18图像分类模型 基于ImageNet-1k训练
模型图像分类GithubtimmImageNet-1kHRNet特征提取开源项目Huggingface
hrnet_w18.ms_aug_in1k是HRNet团队开发的图像分类模型,在ImageNet-1k数据集上训练。该模型拥有2130万参数,4.3 GMACs计算复杂度,可用于图像分类、特征图提取和图像嵌入。模型提供高分辨率视觉表征,适用于多种计算机视觉任务。通过timm库可方便地加载和使用这一预训练模型。
dino-vits16 - DINO训练的小型Vision Transformer模型及其应用
模型开源项目Huggingface自监督学习DINO图像处理Vision Transformer特征提取Github
dino-vits16是一个基于DINO方法训练的小型Vision Transformer模型。该模型在ImageNet-1k数据集上进行自监督预训练,能够有效学习图像特征表示。它采用16x16像素的图像块作为输入,可应用于多种视觉任务。dino-vits16展示了自监督学习在计算机视觉领域的潜力,为图像分类等下游任务奠定了基础。
selecsls42b.in1k - SelecSLS图像分类模型实现实时多人3D动作捕捉
模型ImageNet-1k开源项目HuggingfaceSelecSLS图像分类特征提取Githubtimm
selecsls42b.in1k是基于ImageNet-1k数据集训练的SelecSLS图像分类模型,拥有3200万参数和3.0 GMACs计算量。该模型支持224x224图像输入,可用于图像分类、特征提取和嵌入生成。其独特之处在于能利用单个RGB相机实现实时多人3D动作捕捉,在效率和性能方面表现优异。模型源自XNect项目,代码已在GitHub开源。
MambaVision-S-1K - MambaVision融合Mamba与Transformer的计算机视觉新型架构
模型Github开源项目Huggingface图像分类特征提取深度学习模型计算机视觉MambaVision
MambaVision-S-1K是一种新型计算机视觉模型,首次融合了Mamba和Transformer的设计理念。研究者通过改进Mamba结构增强了其视觉特征建模能力,并验证了与Vision Transformer的有效集成。在ImageNet-1K基准测试中,该模型在准确率和效率方面取得了平衡。MambaVision可用于图像分类和特征提取任务,提供了简洁的调用接口。这一创新架构为计算机视觉领域带来了新的研究思路和应用前景。
stella-base-en-v2 - 多任务英语文本嵌入模型用于自然语言处理
特征提取Huggingface模型信息检索Github开源项目sentence-transformers文本分类句子相似度
stella-base-en-v2是一个英语文本嵌入模型,在MTEB基准测试的多个自然语言处理任务中展现出优异性能。这些任务包括文本分类、检索、聚类和语义相似度等。该模型适用于信息检索、问答系统和文本分析等多种应用场景。其特点是在多样化任务中保持较高准确率,提供了一个多功能的文本处理解决方案。
eca_botnext26ts_256.c1_in1k - 基于ResNeXt架构的BotNet高效图像分类模型
特征提取BotNet图像分类Huggingface模型timmGithub开源项目ImageNet-1k
这是一个基于ResNeXt架构的BotNet图像分类模型,采用高效通道注意力机制。该模型在ImageNet-1k数据集上训练,使用SGD优化器和自适应梯度裁剪技术。模型包含1060万参数,支持256x256像素图像处理。除图像分类外,还可用于特征图提取和图像嵌入,适用于多种计算机视觉任务。
nfnet_l0.ra2_in1k - 轻量级NFNet模型:无需规范化层的高效图像识别
模型ImageNet-1kNFNet开源项目Huggingface图像分类特征提取Githubtimm
nfnet_l0.ra2_in1k是一种创新的轻量级NFNet图像分类模型,摒弃了传统的规范化层。它通过Scaled Weight Standardization和策略性放置的标量增益,实现了高效的大规模图像识别。基于ImageNet-1k数据集训练,该模型拥有3510万参数,适用于图像分类、特征提取和嵌入任务。这种无需常规规范化层的设计,为高性能图像处理提供了新的可能。
lcnet_050.ra2_in1k - LCNet轻量级神经网络模型实现高效图像分类和特征提取
LCNet特征提取Huggingface图像分类模型timmGithub开源项目ImageNet-1k
lcnet_050.ra2_in1k是基于LCNet架构的轻量级图像分类模型,在ImageNet-1k数据集上训练。模型采用RandAugment增强和RMSProp优化,参数量仅1.9M,支持224x224输入。可用于图像分类、特征提取和嵌入生成,适合CPU运行,为计算资源有限的场景提供高效解决方案。
roberta-base-nli-stsb-mean-tokens - RoBERTa句子嵌入模型实现语义搜索与文本聚类
模型向量嵌入Github开源项目Huggingface特征提取语义相似度sentence-transformers自然语言处理
roberta-base-nli-stsb-mean-tokens是一个基于RoBERTa的句子嵌入模型,可将文本映射至768维向量空间。该模型适用于语义搜索和文本聚类等任务,支持通过sentence-transformers或Hugging Face Transformers库调用。虽然已被更新模型取代,但它仍展示了句子嵌入技术的核心原理和应用场景。
res2net101_26w_4s.in1k - Res2Net101多尺度骨干网络实现高效图像分类和特征提取
特征提取Huggingface图像分类模型Res2NettimmGithub开源项目ImageNet-1k
res2net101_26w_4s.in1k是基于Res2Net架构的图像分类模型,通过ImageNet-1k数据集训练而成。该模型采用多尺度设计,在图像分类和特征提取方面表现优异。它拥有4520万个参数,适用于224x224尺寸的图像处理。除图像分类外,还支持特征图提取和图像嵌入功能。研究人员和开发者可通过timm库便捷地将此模型应用于多种计算机视觉任务。
tf_efficientnetv2_s.in21k - EfficientNetV2图像分类模型 支持多种计算机视觉应用
模型图像分类ImageNet-21kGithubtimmEfficientNet-v2特征提取开源项目Huggingface
tf_efficientnetv2_s.in21k是一个基于EfficientNet-v2架构的图像分类模型,在ImageNet-21k数据集上训练。该模型由TensorFlow原始训练,后移植至PyTorch,拥有4820万参数。模型支持图像分类、特征提取和图像嵌入等功能,适用于多种计算机视觉应用场景。通过timm库,开发者可以便捷地加载此预训练模型,实现图像分类、特征图提取或生成图像嵌入等任务。
mobilenetv2_100.ra_in1k - 轻量级CNN模型实现图像分类与特征提取
特征提取MobileNetV2Huggingface图像分类模型timmGithub开源项目ImageNet-1k
MobileNetV2是为移动和嵌入式视觉应用设计的轻量级卷积神经网络。该模型在ImageNet-1k数据集上训练,采用RandAugment数据增强和EMA权重平均技术。MobileNetV2在低计算复杂度下实现了高效的图像分类和特征提取。通过timm库,开发者可以便捷地加载预训练模型,实现图像分类、特征图提取和图像嵌入等功能。
msmarco-MiniLM-L-12-v3 - 高效语句嵌入模型,适用于语义搜索和文本相似度任务
模型Github向量嵌入sentence-transformers开源项目特征提取语义相似度Huggingface自然语言处理
msmarco-MiniLM-L-12-v3是一个sentence-transformers模型,将句子和段落映射到384维密集向量空间。该模型基于BERT架构,使用平均池化,适用于聚类和语义搜索。它可通过sentence-transformers或HuggingFace Transformers库使用,高效生成句子嵌入。这个模型在多个基准测试中表现良好,为自然语言处理应用提供语义表示。
swinv2_tiny_window8_256.ms_in1k - Swin Transformer V2轻量级图像分类与特征提取模型
模型ImageNet-1k开源项目Huggingface图像分类特征提取Swin Transformer V2Githubtimm
swinv2_tiny_window8_256.ms_in1k是基于Swin Transformer V2架构的轻量级图像分类模型,在ImageNet-1k数据集上预训练。该模型拥有2830万参数,6.0 GMACs计算量,支持256x256像素输入。它可用于图像分类、特征图提取和图像嵌入等任务,提供高效的视觉特征提取能力。研究人员和开发者可通过timm库轻松加载此预训练模型,应用于多种计算机视觉项目。
inception_v3.tf_adv_in1k - Inception-v3对抗训练图像分类模型
模型ImageNet-1k开源项目HuggingfaceInception-v3图像分类特征提取Githubtimm
inception_v3.tf_adv_in1k是一个基于Inception-v3架构的图像分类模型,通过对抗训练提高了抗干扰能力。该模型在ImageNet-1k数据集上训练,参数量为23.8M,适用于299x299像素的图像输入。它可用于图像分类、特征提取和嵌入生成,为计算机视觉任务提供了versatile工具。
edgenext_small.usi_in1k - 轻量级CNN-Transformer混合模型EdgeNeXt用于移动视觉应用
ImageNet模型EdgeNeXt图像分类Github神经网络特征提取开源项目Huggingface
edgenext_small.usi_in1k是一款轻量级CNN-Transformer混合模型,针对移动视觉应用优化。该模型在ImageNet-1k数据集上训练,参数量为5.6M,GMACs为1.3。它支持图像分类、特征图提取和图像嵌入等功能,结合CNN和Transformer优势,在保持性能的同时减少计算资源需求,适合在资源受限的移动设备上运行。
mixnet_l.ft_in1k - MixNet-L:轻量级混合深度卷积网络实现高效图像分类
模型图像分类MixNetGithubtimmImageNet-1k特征提取开源项目Huggingface
mixnet_l.ft_in1k是一个在ImageNet-1k数据集上微调的MixNet架构图像分类模型。该模型采用混合深度卷积核,参数量仅为7.3M,计算量为0.6 GMACs,实现了高效的分类性能。支持224x224像素输入,可用于图像分类、特征提取和生成图像嵌入。作为一个轻量级yet性能出色的视觉特征提取器,适用于多种计算机视觉应用场景。
all-MiniLM-L6-v2 - 轻量级句子嵌入模型助力Web环境文本分析
特征提取Huggingface模型ONNX权重GithubTransformers.js开源项目嵌入计算句向量
all-MiniLM-L6-v2是一款基于Transformers.js的轻量级句子嵌入模型。它使用ONNX权重,与Transformers.js完全兼容,适用于Web环境的文本分析。开发者可通过简洁的JavaScript代码创建特征提取管道,快速生成多个句子的标准化嵌入向量。该模型为自然语言处理提供了高效解决方案,尤其适合需要在浏览器中进行文本分析的应用场景。
vit_base_patch16_224.dino - 自监督训练的ViT模型实现高效图像特征提取
DINO模型自监督学习图像分类GithubVision Transformer特征提取开源项目Huggingface
vit_base_patch16_224.dino是一个基于Vision Transformer架构的图像特征提取模型。该模型采用自监督DINO方法在ImageNet-1k数据集上预训练,可用于图像分类和特征提取。模型包含8580万参数,支持224x224像素的输入图像。通过timm库,研究人员可以便捷地将其应用于多种计算机视觉任务,深入探索自监督学习在视觉领域的潜力。
dla102.in1k - 深层聚合架构的图像分类模型 支持多种计算机视觉应用
ImageNet模型图像分类Githubtimm深度层聚合特征提取开源项目Huggingface
dla102.in1k是基于深层聚合架构的图像分类模型,在ImageNet-1k数据集上训练。模型拥有3330万参数,支持224x224像素输入。除图像分类外,还可用于特征图提取和图像嵌入。通过timm库可方便地调用此预训练模型,为计算机视觉应用提供灵活基础。模型在图像分类、特征提取等任务中表现出色,适用于多种视觉分析场景。
sentence-bert-base-ja-mean-tokens - 日语Sentence-BERT模型实现句子向量化和相似度计算
特征提取Huggingface模型句向量模型BERTGithub语义相似度日语开源项目
sentence-bert-base-ja-mean-tokens是一个专为日语开发的Sentence-BERT模型,可将日语句子转换为向量表示。该模型适用于句子相似度计算、文本分类等NLP任务,提供Python接口,支持批量处理和GPU加速。作为日语自然语言处理的基础工具,它为开发者提供了高效的句子编码解决方案。
fbnetv3_b.ra2_in1k - FBNet-v3轻量级图像分类模型支持多种应用场景
特征提取Huggingface图像分类模型FBNet-v3timmGithub开源项目ImageNet-1k
fbnetv3_b.ra2_in1k是基于FBNet-v3架构的轻量级图像分类模型。该模型在ImageNet-1k数据集上训练,使用RandAugment数据增强和EMA权重平均等技术。模型参数仅8.6M,GMAC为0.4,适合移动设备部署。支持图像分类、特征图提取和图像嵌入等应用,可用于多种计算机视觉任务。
tf_mobilenetv3_small_minimal_100.in1k - MobileNetV3小型化模型:高效移动端图像分类
模型图像分类MobileNet-v3GithubtimmImageNet-1k特征提取开源项目Huggingface
tf_mobilenetv3_small_minimal_100.in1k是一款针对移动设备优化的轻量级图像分类模型。基于MobileNet-v3架构,该模型在ImageNet-1k数据集上训练,仅有200万参数和0.1 GMACs,适用于224x224像素的图像输入。除图像分类外,它还可作为特征提取器用于其他计算机视觉任务。通过timm库,开发者可以方便地加载预训练模型,实现图像分类、特征图提取和图像嵌入等功能。这个模型平衡了性能和效率,特别适合资源受限的移动应用场景。
tf_efficientnet_b0.ns_jft_in1k - EfficientNet变体用于图像分类与特征提取
模型神经网络开源项目Huggingface迁移学习图像分类EfficientNet特征提取Github
tf_efficientnet_b0.ns_jft_in1k模型基于EfficientNet架构,通过Noisy Student半监督学习在ImageNet-1k和JFT-300m数据集上训练。拥有520万参数,0.4 GMAC,支持224x224图像输入。这一轻量级模型适用于图像分类、特征提取和嵌入生成,为计算机视觉应用提供高效且多功能的解决方案。
inception_v3.tv_in1k - Inception-v3图像分类与特征提取深度学习模型
特征提取Huggingface图像分类模型timmImageNetGithub开源项目Inception-v3
inception_v3.tv_in1k是基于Inception-v3架构的图像分类模型,通过ImageNet-1k数据集训练。该模型可用于图像分类和特征提取,参数量为23.8M,GMACs为5.7,适用于299x299分辨率图像。通过timm库,研究者可便捷加载预训练模型,执行图像分类、特征图提取和图像嵌入等任务,为计算机视觉研究提供有力工具。
rexnet_100.nav_in1k - 轻量级ReXNet图像分类模型 为资源受限场景提供高效解决方案
模型图像分类ReXNet模型比较GithubImageNet-1k特征提取开源项目Huggingface
rexnet_100.nav_in1k是一款基于ReXNet架构的轻量级图像分类模型,在ImageNet-1k数据集上进行了预训练。该模型仅有4.8M参数和0.4 GMACs,适合在计算资源有限的环境中部署。它支持图像分类、特征图提取和图像嵌入等功能,为开发者提供多样化的应用选择。在ImageNet-1k验证集上,该模型展现出77.832%的Top-1准确率和93.886%的Top-5准确率,在轻量级模型中表现优异。
vit_small_patch16_224.dino - DINO训练的小型Vision Transformer图像特征模型
模型开源项目Huggingface自监督学习图像分类特征提取Vision TransformerGithubtimm
vit_small_patch16_224.dino是一个采用DINO自监督方法训练的小型Vision Transformer模型。该模型拥有2170万参数,支持224x224像素图像输入,可用于图像分类和特征提取。通过timm库可快速部署,在ImageNet-1k数据集预训练后,为多种计算机视觉任务提供高质量的特征表示。
stsb-mpnet-base-v2 - 将句子映射至向量空间的自然语言处理模型
嵌入向量特征提取Huggingface模型Github语义相似度开源项目sentence-transformers自然语言处理
stsb-mpnet-base-v2是一个基于sentence-transformers的模型,能够将句子和段落转换为768维向量。该模型适用于文本聚类和语义搜索等任务,具有使用简便和性能优异的特点。它采用MPNet架构和平均池化方法生成句子嵌入,在多项评估中表现良好,可广泛应用于自然语言处理领域。
jina-embeddings-v2-base-en - 先进的嵌入模型提升多种自然语言处理任务性能
模型开源项目文本嵌入Huggingface特征提取sentence-transformersGithubMTEB句子相似度
jina-embeddings-v2-base-en是一款高性能嵌入模型,为多种自然语言处理任务生成优质语义表示。在MTEB基准测试中,该模型在文本分类、检索和聚类等任务上表现卓越。尽管名称包含'en',但实际支持多语言处理,可应用于信息检索、问答系统和文本相似度计算等场景。模型采用先进技术,在实际应用中兼具效率和准确性。
convnextv2_tiny.fcmae_ft_in22k_in1k - ConvNeXt-V2图像分类模型 FCMAE预训练与ImageNet微调
ConvNeXt-V2模型开源项目Huggingface图像分类特征提取ImageNet卷积神经网络Github
ConvNeXt-V2架构的图像分类模型采用全卷积掩码自编码器(FCMAE)预训练,并在ImageNet-22k和ImageNet-1k数据集上微调。该模型拥有2860万参数,224x224输入尺寸下达到83.894%的top1准确率。适用于图像分类、特征提取和图像嵌入等计算机视觉任务,为高效图像处理提供了强大支持。
vgg19_bn.tv_in1k - VGG19架构的ImageNet预训练图像分类模型
模型VGGImageNet-1k开源项目Huggingface图像分类特征提取Githubtimm
vgg19_bn.tv_in1k是一个在ImageNet-1k数据集上预训练的VGG19模型,拥有1.437亿参数。该模型适用于图像分类、特征提取和嵌入生成等多种计算机视觉任务。通过timm库,用户可以方便地加载和使用这个模型,实现高精度的图像识别功能。模型在保持较高计算效率的同时,还提供了多种使用方式,如图像分类、特征图提取和图像嵌入等。
tf_efficientnetv2_b0.in1k - 轻量高效的图像分类解决方案
ImageNet模型图像分类GithubtimmEfficientNet-v2特征提取开源项目Huggingface
EfficientNetV2-B0是EfficientNet-v2系列中的轻量级模型,由谷歌研究团队开发并在ImageNet-1k数据集上训练。模型参数仅7.1M,GMACs为0.5,在保持较高准确率的同时大幅降低计算复杂度。除图像分类外,还可用于特征提取和生成图像嵌入。该模型适用于资源受限的环境,如移动设备和边缘计算场景,为开发者提供了高效的图像处理解决方案。
ghostnet_100.in1k - GhostNet轻量级图像分类模型实现高效特征提取
模型图像分类HuggingfaceGithub神经网络深度学习特征提取开源项目GhostNet
ghostnet_100.in1k是基于GhostNet架构的轻量级图像分类模型,在ImageNet-1k数据集上训练。该模型通过创新的特征生成方法,实现了高效的特征提取。模型参数量为5.2M,GMACs仅0.1,适用于224x224像素的图像输入。除图像分类外,还可作为特征提取器应用于其他计算机视觉任务。用户可通过timm库轻松加载和使用该模型。
bge-base-en-v1.5-41-keys-phase-2-v1 - 多维度向量嵌入的英语句子相似度模型
模型开源项目语义向量矩阵损失Huggingface特征提取BAAI/bge-base-en-v1.5Github句子相似度
bge-base-en-v1.5-41-keys-phase-2-v1是基于BAAI/bge-base-en-v1.5的英语句子相似度模型。该模型支持768、512、256、128和64等多种向量维度,在信息检索任务中表现优异。模型采用MatryoshkaLoss和MultipleNegativesRankingLoss训练,适用于句子相似度计算和特征提取。项目提供多种评估指标,遵循Apache-2.0许可协议开源。
tf_efficientnetv2_s.in21k_ft_in1k - EfficientNet-v2图像分类模型 基于双重ImageNet数据集训练
模型EfficientNet-v2开源项目Huggingface图像分类ImageNet特征提取Githubtimm
这是一个基于EfficientNet-v2架构的图像分类模型,采用ImageNet-21k预训练和ImageNet-1k微调策略。模型参数量为2150万,计算量为5.4 GMACs,支持图像分类、特征提取和图像嵌入等多种应用。训练采用300x300分辨率,测试时提升至384x384,在性能和效率之间实现良好平衡。该模型最初由论文作者在Tensorflow中实现,后由Ross Wightman移植至PyTorch框架。
vit_base_patch16_224.mae - 采用MAE预训练的Vision Transformer图像特征模型
模型开源项目Huggingface自监督学习图像分类特征提取Vision TransformerImageNetGithub
vit_base_patch16_224.mae是一个基于Vision Transformer架构的图像特征模型,通过自监督掩码自编码器(MAE)方法在ImageNet-1k数据集上预训练。该模型适用于图像分类和特征提取,拥有8580万参数,处理224x224像素的输入图像。它提供简洁的API,便于获取分类结果和提取图像嵌入。这个模型融合了ViT的出色表征能力和MAE的自监督学习优势,为多种计算机视觉任务提供了有力的预训练基础。
相关文章