#特征提取
stsb-distilroberta-base-v2 - 基于DistilRoBERTa的文本向量化与语义搜索模型
语义相似度向量嵌入自然语言处理sentence-transformersHuggingfaceGithub开源项目模型特征提取
基于DistilRoBERTa架构的预训练语言模型,将文本转换为768维向量表示。模型整合sentence-transformers框架,支持句子相似度计算、文本聚类和语义搜索功能。通过平均池化策略优化文本嵌入处理,在保证性能的同时降低资源消耗,适用于大规模文本向量化场景。
MambaVision-T-1K - 提高视觉模型长距离空间依赖的处理能力
特征提取开源项目模型GithubMambaVisionHuggingface计算机视觉变换器图像分类
MambaVision是一个混合视觉模型,将Mamba与Transformer的优点结合,重新设计后的Mamba通过引入自注意力机制有效捕获长距离空间依赖。该模型在Top-1准确率和吞吐量上表现突出,创造了新的性能标准。用户可以通过简单的安装和代码导入来使用其图像分类和特征提取功能,满足多样化的应用需求,同时提供阶段性和平均池化特征输出。
dpn131.mx_in1k - DPN双路径神经网络图像分类模型 支持ImageNet预训练和特征提取
神经网络深度学习图像分类Huggingface特征提取DPN131开源项目模型Github
DPN131是基于Dual-Path Networks架构的图像分类模型,在ImageNet-1k数据集上训练。模型包含7930万参数,支持224x224图像输入,提供图像分类、特征图提取和图像嵌入功能。通过timm库可轻松加载使用,适用于多种计算机视觉任务。该模型由MXNet训练并移植到PyTorch,支持批量处理和特征提取。
snowflake-arctic-embed-m-v1.5 - 基于Transformers的句子相似度检索模型
Huggingface检索任务特征提取开源项目模型Githubsentence-transformers句子相似度模型评估
snowflake-arctic-embed-m-v1.5是基于Transformers.js开发的句子相似度模型,主要应用于文本检索和特征提取。该模型采用sentence-transformers架构,在MTEB ArguAna等基准测试中主要评估指标达到59.53,能够提供准确的文本匹配和检索功能。
vit_large_patch14_dinov2.lvd142m - 基于DINOv2的大规模Vision Transformer视觉特征提取模型
timmDINOv2特征提取模型Github开源项目图像分类ViTHuggingface
这是一个基于Vision Transformer架构的图像特征提取模型,采用DINOv2自监督学习方法在LVD-142M数据集上预训练。模型包含3.044亿参数,支持518x518像素输入,适用于图像分类和特征提取任务。该模型提供了完整的加载、预处理和推理示例代码,可应用于需要高质量视觉特征表示的各种计算机视觉场景。
convnext_atto.d2_in1k - 轻量级ConvNeXt模型,优化图像分类和特征提取
Ross Wightman特征提取开源项目模型GithubHuggingfaceConvNeXtImageNet-1k图像分类
ConvNeXt图像分类模型,经过Ross Wightman在timm库中使用ImageNet-1k数据集训练。其参数为3.7M,计算量为0.6 GMACs,适合高效图像嵌入与特征提取,计算复杂度低但准确度高,适合多种图像分析任务。
inception_next_tiny.sail_in1k - InceptionNeXt架构的轻量级图像分类模型
特征提取开源项目模型timmGithubHuggingfaceImageNet-1kInceptionNeXt图像分类
inception_next_tiny.sail_in1k是基于InceptionNeXt架构的图像分类模型,在ImageNet-1k数据集上训练。该模型结合Inception和ConvNeXt的特点,提供图像分类、特征图提取和图像嵌入功能。模型参数为28.1M,GMACs为4.2,适用于224x224大小的图像输入。它通过timm库提供简洁的API,支持预训练权重,可轻松应用于多种计算机视觉任务。
kobart-base-v2 - 基于BART的韩文特征提取模型
KoBARTHuggingface编码器解码器Github开源项目模型韩语特征提取语言模型
该项目利用BART模型的Text Infilling技术进行训练,生成了一种高效的韩文特征提取模型。KoBART-base利用超过40GB的多样化韩文数据进行训练,适用于特征提取任务。注意模型可能存在的偏见和局限性,避免在不当环境中使用。项目包含GitHub仓库和模型演示空间,便于用户深入了解和使用。
repvit_m1.dist_in1k - ImageNet-1k高效图像分类与特征提取开源项目
图像分类Github开源项目timmRepViT模型Huggingface特征提取ImageNet-1k
repvit_m1.dist_in1k是RepViT家族中的高效图像分类模型,专为ImageNet-1k数据集优化,应用蒸馏技术增强性能。模型参数为5.5M,0.8 GMACs,支持224x224图像尺寸。设计灵感源于对移动CNN的创新探索,结合ViT视角。详情请参考相关arXiv文献。该模型能够执行图像分类、特征提取和图像嵌入等任务,适合的研究和工程应用。
tf_efficientnet_b3.ns_jft_in1k - 结合EfficientNet架构的神经网络图像处理模型
深度学习图像分类Huggingface特征提取开源项目模型GithubEfficientNetImageNet
该模型采用EfficientNet架构,通过Noisy Student半监督学习方法在ImageNet-1k和JFT-300m数据集训练。模型参数量1220万,支持300x300分辨率图像处理,可实现图像分类、特征提取和图像嵌入等功能。模型结合高效的网络架构和半监督学习技术,在图像处理任务中表现出色。
bge-en-icl - 先进的多语言自然语言处理模型
分类检索Huggingfacesentence-transformersGithub开源项目模型特征提取句子相似度
bge-en-icl是一个开源的句子嵌入模型,在MTEB基准测试的多项自然语言处理任务中表现出色。该模型支持多语言处理,适用于句子相似度计算、文本分类和信息检索等应用场景。在AmazonPolarity分类任务中,bge-en-icl达到了96.98%的准确率;在FEVER检索任务中,准确率达到92.83%。此外,该模型在其他任务如ArguAna检索和Banking77分类中也取得了优异成绩。bge-en-icl为研究人员和开发者提供了一个强大的工具,用于处理和分析各种文本数据。
convnextv2_huge.fcmae_ft_in22k_in1k_512 - ConvNeXt-V2高效的图像分类与特征提取模型
图像分类模型预训练ConvNeXt-V2HuggingfaceImageNetGithub开源项目模型特征提取
ConvNeXt-V2模型在全卷积掩码自动编码器框架下进行预训练,并在ImageNet-22k和ImageNet-1k数据集上微调,提升了图像分类和特征提取的效率。模型拥有660.3M参数,处理512x512图像,适合复杂计算需求。支持图像分类、特征图提取和图像嵌入,确保高准确率和多样化应用,结合timm库简化操作,适用于研究和工业应用。
convnext_atto_ols.a2_in1k - 高效的ConvNeXt模型实现图像分类与特征提取
图像分类HuggingfaceImageNet-1k特征提取开源项目模型Github图像嵌入ConvNeXt
本项目提供一个基于ImageNet-1k数据集优化的ConvNeXt图像分类模型,其低参数量和高效计算性能使其成为图像处理任务(如特征图提取和图像嵌入生成)的理想选择。该模型在timm库中训练,支持快速且准确的分类任务,并适用于多种计算需求。
tinynet_e.in1k - TinyNet模型在ImageNet-1k上的应用与性能分析
timm特征提取ImageNet-1k模型Github开源项目图像分类tinynet_e.in1kHuggingface
TinyNet是一个旨在优化图像分类和特征提取的模型,通过调整分辨率、深度和宽度,在ImageNet-1k上进行训练。模型参数量为2.0M,并具有低计算负荷。提供简便的代码示例以支持图像分类、特征图提取和图像嵌入,可用于多种图像处理场景。同时,通过timm库探索其指标表现,更深入了解其在神经信息处理中的应用。
snowflake-arctic-embed-m-long - 探索句子相似性与特征提取的新前沿
Huggingface特征提取开源项目模型Githubsentence-transformers数据集句子相似性分类
Snowflake-arctic-m-long模型基于transformers.js框架,提升了句子相似性和特征提取能力。支持的任务包括分类、检索与聚类,尤其在MTEB数据集上的表现优异。在Amazon分类任务中,其准确率超过78%,在ArguAna和CQADupstack检索任务中,检索性能高达50%以上。通过优化多项评测指标,如准确率、F1得分和检索率,这一模型为文本处理与分析提供了坚实的支持。
efficientnetv2_rw_t.ra2_in1k - EfficientNet-v2的模型特点与应用分析
Github模型ImageNet-1k开源项目图像分类EfficientNet-v2timmHuggingface特征提取
EfficientNet-v2是一个专注于图像分类的高效模型,采用RandAugment策略在ImageNet-1k数据集上训练,具有参数少、训练快的特点。通过timm库实现,支持特征图提取和图像嵌入等多种功能。其结构设计为强大的特征骨干提供了基础。
vit_small_patch8_224.dino - 基于自监督DINO的图像特征提取Transformer
图像分类模型比较自监督学习HuggingfaceGithub开源项目模型特征提取Vision Transformer
项目提供了一种自监督DINO方法的Vision Transformer模型,用于图像特征提取。具有21.7M参数和16.8 GMACs运算量,预训练数据为ImageNet-1k。适用于多种视觉任务,支持通过PyTorch和timm库实现,确保高效处理。这项技术在视觉Transformer领域表现出色。
tf_efficientnet_lite0.in1k - 轻量级EfficientNet-Lite模型实现高效图像分类与特征提取
EfficientNet-LiteGithub模型ImageNet-1k开源项目图像分类Huggingface模型对比特征提取
EfficientNet-Lite0是一款专为高效图像分类和特征提取设计的模型,经过ImageNet-1k训练。该模型已被迁移至PyTorch,并利用timm库进行图像嵌入和特征图提取。在4.7M参数和0.4 GMACs的架构下,实现了高效性能与计算资源节约,适合作为多种视觉任务的解决方案。
sentence-bert-swedish-cased - 瑞典句子变换模型,多语言句子嵌入优化
Githubsentence-transformers开源项目特征提取语义相似性Huggingface知识蒸馏多语言模型模型
该项目利用知识蒸馏技术,使单语言瑞典语与英语句子嵌入具备多语言能力,适用于聚类、语义搜索等任务。最新的v2.0版本在更强教师模型指导下训练,支持处理更长段落,并在SweParaphrase和SweFAQ等测试集中表现出色。
LLM2Vec-Meta-Llama-3-8B-Instruct-mntp-supervised - LLM2Vec-Meta-Llama-3-8B模型——文本嵌入与语义相似度的高效工具
Github开源项目句子相似度特征提取文本检索分类HuggingfaceLLM2Vec-Meta-Llama-3-supervised模型
LLM2Vec-Meta-Llama-3-8B-Instruct-mntp项目提供了创新的文本嵌入技术,支持文本分类、信息检索、重排序和聚类等多种任务。通过其监督模型,有效提升精度和召回率,如在Amazon反事实分类任务中准确率达79.94%,在ArguAna数据集的检索任务中各项指标优异。此项目在多种自然语言处理中展现出显著应用潜力,是评价文本语义相似度的关键工具。
phrase-bert - 短语嵌入与语料库分析的提升方案
特征提取Phrase-BERT开源项目模型GithubHuggingface短语嵌入句子相似性语料库探索
Phrase-BERT项目利用BERT改进短语嵌入,应用于语料库分析,通过sentence-transformers库轻松实现模型安装与使用,支持短语点积及余弦相似度计算。项目包含五个短语语义评估任务,提供训练与微调Phrase-BERT所需的代码和数据集,使用Python脚本详细展现使用方法、训练和评估步骤,便捷用户进行多任务扩展。
caformer_b36.sail_in22k_ft_in1k - CAFormer图像分类模型基于MetaFormer设计
timm图像分类Huggingface特征提取开源项目模型GithubImageNetCAFormer
CAFormer基于MetaFormer架构,支持由ImageNet-22k预训练和ImageNet-1k微调,旨在增强图像识别能力。拥有98.8M参数与23.2 GMACs,擅长处理224x224像素图像。通过TIMM库访问,这款图像分类/特征骨干模型能够提升图像理解及特征提取,适用于图像分类、特征提取和图像嵌入等多种视觉任务。
rexnet_150.nav_in1k - 高效的图像识别与特征提取
timmReXNet特征提取ImageNet-1k模型Github开源项目图像分类Huggingface
ReXNet是一款在ImageNet-1k数据集上预训练的图像分类模型,具有9.7M参数和0.9 GMACs,专为224x224尺寸图像设计。在timm库中实现模型调用,支持图像分类、特征地图提取及嵌入计算,堪称参数量与准确率之间的理想平衡,适用于深度学习研究和开发。
wide_resnet101_2.tv_in1k - 宽残差网络101_2图像分类与特征提取功能
wide_resnet101_2.tv_in1k特征提取ImageNet-1k模型Github开源项目图像分类ReLU激活Huggingface
Wide-ResNet101_2.tv_in1k是一种经ImageNet-1k数据训练的图像分类模型,采用ReLU激活、7x7卷积以及1x1卷积捷径降采样。该模型在图像分类和特征图提取方面表现优秀,可通过timm库轻松集成,是图像处理和计算机视觉领域的实用工具。
resnet18.a3_in1k - 简化且高效的图像分类模型,支持轻松集成
神经网络图像分类特征提取ImageNet模型Github开源项目ResNetHuggingface
ResNet18的最新变体,在ImageNet-1k数据集上使用A3训练方法进行优化。模型具有ReLU激活函数、7x7卷积与池化、以及1x1卷积下采样设计,增强图像分类精度和特征提取能力,适合影像识别和深度学习项目应用。参数数量为11.7M,GMACs为0.9,适用于中小规模项目,易于集成部署。
stella-large-zh-v2 - stella-large-zh-v2模型在多任务中的综合表现
模型评估亚马逊评论分类stella-large-zh-v2特征提取模型Github开源项目句子相似性Huggingface
本项目借助多个MTEB数据集,对模型在句子相似度、分类及检索任务中的表现进行了全面评估。通过cos_sim_pearson、cos_sim_spearman等多项指标,展示了该模型在中文文本相似度和分类任务中的高效能力,尤其体现在MTEB BQ和MTEB CovidRetrieval数据集上。测试结果表明,该模型可在多种任务和数据集上灵活应用,适用于高精度文本相似性测量和分类的应用场景。
prot_bert_bfd - 用于自监督蛋白质序列分析的ProtBert-BFD模型
掩码语言模型Huggingface蛋白质序列特征提取开源项目模型Github语言模型ProtBert-BFD
ProtBert-BFD模型是一种利用Bert架构进行蛋白质序列自监督学习的预训练工具。该模型使用BFD数据集进行训练,能够捕捉蛋白质的生物物理特性,适用于特征提取和下游任务。其遮蔽语言建模方法无需人工标记即可从大规模数据中进行学习,成为生物信息学中理解蛋白质编码的有效工具。
efficientnet_b5.sw_in12k_ft_in1k - EfficientNet-加强版:适用于图像分类与特征提取的高效模型
timm图像分类Huggingface特征提取开源项目模型GithubEfficientNetImageNet
EfficientNet模型结合了Swin Transformer的优化策略,经过ImageNet-12k预训练及ImageNet-1k微调,适用于图像识别、特征提取和嵌入生成。该模型使用AdamW优化器、梯度裁剪和余弦退火学习率等技术,提供高效的图像分类解决方案。
BioLinkBERT-base - 结合文献和引用关系的生物医学预训练模型
生物医学跨文档任务文本分类开源项目模型HuggingfaceBioLinkBERT特征提取Github
BioLinkBERT-base模型利用PubMed文献和引用信息进行预训练,在多项生物医学NLP基准测试中达到了出色表现。它在知识密集型及跨文档任务中尤为有效,并可用于问题回答、序列分类和特征提取的微调应用。
twitter-roberta-base - 社交媒体推文特化的RoBERTa基础模型
机器学习Github模型开源项目Twitter-roBERTa-baseHuggingface特征提取数据预处理推文分析
该模型在经过5800万推文数据训练后基于原始RoBERTa基础模型优化,旨在提高其对Twitter数据的自然语言处理性能。用户可通过TweetEval官方仓库评估该模型,示例功能包括文本预处理、掩码语言模型、推文嵌入及特征提取,适用于情感分析及文本相似度判定等用途。
mobilenetv4_conv_medium.e500_r256_in1k - MobileNet-V4中档卷积模型:在保持较低参数量的同时提高图像分类效率
timm特征提取MobileNet-V4ImageNet-1k模型Github开源项目图像分类Huggingface
介绍了在ImageNet-1k数据集上训练的MobileNet-V4图像分类模型,其在维持高效分类精度的同时,降低了参数和计算量。模型支持特征提取和图像嵌入等应用场景,并与同类模型进行了广泛比较,适用于移动设备上的高效图像处理。
convnextv2_base.fcmae_ft_in22k_in1k_384 - 高效图像识别与特征开发的开源解决方案
ImageNet图像分类卷积神经网络开源项目模型Huggingface特征提取ConvNeXt-V2Github
ConvNeXt-V2是一款基于全卷积掩码自编码器(FCMAE)预训练的图像分类模型,能够高效处理ImageNet-22k和ImageNet-1k数据集。模型拥有88.7M的参数和45.21 GMACs,适合精准的图像识别和特征开发。兼容timm库,支持图像分类、特征图提取和图像嵌入生成等应用场景。通过简单的Python代码即可调用该模型,提升开发效率。
tf_efficientnetv2_m.in21k_ft_in1k - EfficientNetV2的图片识别与特征提取
Github开源项目特征提取图像分类EfficientNet-v2Huggingface深度学习图像嵌入模型
EfficientNetV2模型在ImageNet-21k数据集上预训练,并在ImageNet-1k上微调,最初使用TensorFlow构建,由Ross Wightman移植至PyTorch。其参数量为54.1M,能够在不同分辨率下实现精确的图像识别,并支持通过timm库执行图像分类、特征提取和嵌入生成等多任务。
convnext_nano.in12k_ft_in1k - 基于ConvNeXt架构的轻量级图像分类模型
ConvNeXtGithub模型ImageNet开源项目图像分类timmHuggingface特征提取
convnext_nano.in12k_ft_in1k是基于ConvNeXt架构开发的轻量级图像分类模型,模型参数量1560万,在ImageNet-12k数据集预训练后在ImageNet-1k微调。支持图像分类、特征提取和嵌入向量生成等功能,适用于计算资源受限环境下的视觉任务。
text2vec-large-chinese - 中文大规模句子相似性与特征提取模型
MacBERTHuggingfacetext2vecGithub开源项目模型特征提取transformers句子相似度
基于text2vec衍生的中文模型,采用LERT替代MacBERT,提高句子相似性和特征提取效率。支持onnxruntime,发布于2024年6月25日。
相关文章