#迁移学习
pytorch-deep-learning - 深入PyTorch的深度学习实用教程
PyTorch深度学习神经网络计算机视觉迁移学习Github开源项目
本课程涵盖从基础到高级的深度学习概念,通过实践教学与丰富的视频材料,讲解PyTorch操作和应用。包括神经网络分类、计算机视觉和数据集处理等主题,适合希望深化机器学习理解和应用的学习者。课程包括最新的PyTorch 2.0教程,确保内容的时效性和专业性。
pykale - 改进多模态机器学习的高效绿色解决方案
PyKale多模态学习迁移学习深度学习机器学习Github开源项目
PyKale通过简化数据、软件和用户之间的连接,使跨学科研究的机器学习更容易访问。它专注于多模态学习和迁移学习,支持图像、视频和图形的数据类型,涵盖深度学习和降维模型。PyKale遵循绿色机器学习理念,通过减少重复、再利用资源和回收学习模型,实现高效和可持续的研究。适用于生物信息学、图像和视频识别及医学成像,利用多源知识做出准确且可解释的预测。
ModelsGenesis - 3D医疗影像自监督预训练模型
Models Genesis3D医学影像自学习迁移学习医学图像分析Github开源项目
此项目推出了名为Generic Autodidactic Models的预训练模型,专为3D医学影像应用设计,特别适合标注数据有限的情况。这一模型通过自监督学习实现自我训练,无需人工标注,并能生成各种应用场景的目标模型。Models Genesis性能显著优于从零开始训练的3D模型,甚至超过了包括ImageNet模型在内的2D方法,尤其在分割肝脏、肿瘤和海马体方面表现卓越。
awesome-adapter-resources - 大型预训练神经网络适配器方法工具和论文资源库
AdapterPEFTNLP参数高效迁移学习Github开源项目
本项目汇集了大型预训练神经网络适配器方法的关键工具和论文。涵盖自然语言处理、计算机视觉和音频处理领域的适配器技术,包括方法、组合技术、分析评估和应用。提供框架工具链接和详细调查研究,是研究人员和从业者的重要参考资源。
DIVA - 扩散模型辅助CLIP增强视觉理解能力
DIVACLIPAI视觉扩散模型迁移学习Github开源项目
DIVA是一种创新方法,利用扩散模型作为视觉助手优化CLIP表示。通过文本到图像扩散模型的生成反馈,DIVA无需配对文本数据即可提升CLIP视觉能力。在MMVP-VLM细粒度视觉评估基准上,DIVA显著提升了CLIP性能,同时保持了其在29个图像分类和检索基准上的强大零样本能力。这为增强视觉语言模型的视觉理解开辟了新途径。
offsite-tuning - 隐私保护的高效模型微调框架
迁移学习基础模型隐私保护效率提升Offsite-TuningGithub开源项目
Offsite-Tuning是一种迁移学习框架,允许在不完全访问原始模型的情况下对大型基础模型进行微调。该方法使用轻量级适配器和压缩仿真器,保护模型所有者和数据所有者的隐私,同时提高计算效率。与传统全模型微调相比,Offsite-Tuning保持相当准确性,同时实现6.5倍速度提升和5.6倍内存减少,适用于大规模语言和视觉模型。
CVinW_Readings - 聚焦计算机视觉在野外(Computer Vision in the Wild)这一新兴研究领域
计算机视觉迁移学习预训练模型多模态图像分类Github开源项目
CVinW_Readings项目聚焦计算机视觉在野外(Computer Vision in the Wild)这一新兴研究领域。项目提供CVinW简介并维护相关论文集。CVinW致力于开发易于适应广泛视觉任务的可转移基础模型,特点是广泛的任务转移场景和低转移成本。内容涵盖任务级转移、高效模型适应和域外泛化等研究方向的最新进展。
awesome-domain-adaptation - 领域自适应技术研究综合资源库
领域适应迁移学习对抗学习无监督学习深度学习Github开源项目
该项目汇集了领域自适应技术的最新研究论文、代码和相关资源。内容涵盖无监督、半监督、弱监督等多个子领域,以及计算机视觉、自然语言处理等应用场景。论文按主题分类整理,并提供代码实现链接,方便研究人员快速了解该领域前沿进展,是领域自适应研究的重要参考资料库。
PyContinual - 多任务持续学习的开源Python框架
PyContinual持续学习自然语言处理神经网络迁移学习Github开源项目
PyContinual是一个开源的持续学习框架,支持语言和图像多种任务类型。框架包含40多种基线方法,可进行任务增量和领域增量学习。它具有易用性和可扩展性,允许研究者快速更改实验设置和添加自定义组件。PyContinual持续集成最新研究成果,提供最新基准测试结果,为持续学习研究提供了全面的实验平台。
ContinualLM - 语言模型持续学习的开源框架
ContinualLM连续学习语言模型迁移学习领域适应Github开源项目
ContinualLM是专注于语言模型持续学习的开源框架。它集成多种先进方法,采用统一的训练评估流程。支持领域自适应预训练和端任务微调,包含6个领域数据集。该框架致力于推动语言模型持续学习研究,为研究人员提供灵活有力的工具。
UniTS - 统一时间序列模型实现多领域任务处理
UniTS时间序列模型多任务学习迁移学习零样本学习Github开源项目
UniTS是一种统一的时间序列模型,可处理多领域的分类、预测、插补和异常检测任务。该模型使用共享参数方法,无需任务特定模块,在38个多领域数据集上表现优异。UniTS具有零样本、少样本和提示学习能力,能适应新的数据领域和任务。其创新的统一网络主干融合了序列和变量注意力机制以及动态线性运算符,为时间序列分析提供了灵活的解决方案。
REINVENT4 - 人工智能驱动的多功能分子设计工具
REINVENT分子设计强化学习迁移学习化学信息学Github开源项目
REINVENT 4是一款基于强化学习的先进分子设计工具,支持从头设计、骨架跳跃和R基团替换等多种任务。它根据多组分评分标准生成优化分子,并通过迁移学习提高设计效率。该工具兼容Linux、Windows和MacOS平台,支持GPU和CPU运行,为药物研发和化学创新提供了有力支持。
SIGIR2020_peterrec - 基于序列行为的参数高效迁移学习推荐方法
PeterRec推荐系统迁移学习用户建模深度学习Github开源项目
SIGIR2020_PeterRec提出了一种基于用户序列行为的参数高效迁移学习方法,用于改进推荐系统性能。该方法在冷启动等场景中表现出色。项目提供了多个大规模数据集,用于评估各类推荐模型,包括基础模型、可迁移模型、多模态模型和大语言模型。项目还包含PyTorch代码实现和详细的使用说明。
training_extensions - OpenVINO框架助力快速训练和部署计算机视觉模型
OpenVINO计算机视觉迁移学习深度学习模型训练Github开源项目
OpenVINO Training Extensions是一个专注计算机视觉的低代码迁移学习框架。它基于PyTorch和OpenVINO工具包开发,提供简洁API和CLI命令,支持分类、检测、分割等多种任务的模型训练、推理和部署。该框架具备自动配置、分布式训练、混合精度等功能,可快速构建高效准确的视觉AI模型。
SuPreM - 基于大规模数据集的三维医学影像分析预训练模型套件
SuPreM医学影像分析3D模型迁移学习大规模数据集Github开源项目
SuPreM是一套基于大规模数据集和每体素标注的预训练3D模型,在多种医学影像任务中展现出优秀的迁移能力。该项目结合AbdomenAtlas 1.1数据集(9,262个带注释CT扫描)和多个先进AI模型,为三维医学图像分析提供了基础数据集和模型,有助于提升该领域的研究效率和算法性能。
t5-base-finetuned-question-generation-ap - T5微调模型用于高效问题生成
Huggingface开源项目模型迁移学习问题生成GithubSQuAD自然语言处理T5
T5-base模型在SQuAD数据集上进行微调,通过整合答案和上下文实现问题生成。项目依托Hugging Face的Transformers库,在Google的支持下,利用迁移学习提升自然语言处理的精确度。支持大规模无标签数据集加载及优化训练脚本,以改善问答生成性能。
bit-50 - 大规模增强视觉学习的预训练模型
开源项目模型GithubImageNetBig TransferHuggingface迁移学习ResNet图像分类
Big Transfer (BiT) 是一种通过扩展预训练提升视觉任务中深度神经网络表现的方法,优化样本效率和超参数调整。该方法在超过20个数据集上具备优异的迁移能力,并可适应不同数据规模的需求。在ILSVRC-2012数据集上,BiT达到了87.5%的top-1准确率,在CIFAR-10数据集上取得99.4%的准确率,并在19项视觉任务基准测试中获得76.3%的成绩。这使得BiT在图像分类任务中得到广泛应用。
t5-base-japanese - 高效的日语文本转换T5预训练模型
日本语料库模型T5Huggingface迁移学习语言模型准确率Github开源项目
本项目针对日语文本处理,提供了一款预训练的T5模型,该模型利用Wikipedia、OSCAR和CC-100等约100GB的数据进行训练。相比Google多语言T5模型,虽尺寸小25%,但在精度上有所提升,尤其是在livedoor新闻分类任务中表现突出。适用于日语文本高效处理,需关注潜在的偏见和伦理输出问题。
all-MiniLM-L6-v2 - 高性能句子嵌入模型实现多种NLP任务
自然语言处理sentence-transformers语义搜索开源项目句子嵌入Github迁移学习Huggingface模型
all-MiniLM-L6-v2是一个基于sentence-transformers的句子嵌入模型。它能将文本映射至384维向量空间,在超11亿对句子上微调而成。该模型适用于语义搜索、聚类等多种NLP任务,采用对比学习方法生成高质量嵌入。通过sentence-transformers或Hugging Face Transformers库,可轻松集成到各类应用中。在多项基准测试中,all-MiniLM-L6-v2展现出优异性能。
bart_finetuned_keyphrase_extraction - BART微调模型实现多领域关键短语自动提取
模型Github跨领域开源项目Huggingface迁移学习BART自然语言处理关键短语生成
这是一个基于BART模型微调的关键短语生成项目。该模型在科学文献和新闻文本等多领域数据集上进行了训练,能够自动从文本中提取关键短语。项目利用迁移学习技术提高了模型在小规模语料库上的表现,为跨领域关键短语生成提供了有效解决方案。研究人员可以方便地使用此模型实现自动化的关键信息提取。
electra-small-discriminator - 创新的自监督语言表示学习技术
模型Github预训练模型判别器开源项目迁移学习HuggingfaceELECTRA自然语言处理
ELECTRA是一种新型自监督语言表示学习方法,通过训练模型识别真实和生成的输入标记来预训练Transformer网络。这种方法在计算资源受限时仍能表现出色,小规模可在单GPU上训练,大规模则在SQuAD 2.0数据集上取得领先成果。ELECTRA为自然语言处理任务提供了一种计算效率高、效果显著的预训练技术,适用于各种规模的应用场景。
t5-v1_1-xxl - Google T5模型的改进版本 提升多种NLP任务性能
Huggingface模型迁移学习GithubT5预训练模型开源项目自然语言处理C4数据集
t5-v1_1-xxl是Google T5模型的改进版本,采用GEGLU激活函数和优化的预训练策略。该模型在C4数据集上进行预训练,具有更大的d_model和更小的num_heads及d_ff参数。t5-v1_1-xxl在摘要、问答和文本分类等多种NLP任务中表现出色。研究人员可以利用这一模型进行迁移学习,促进自然语言处理技术的进步。
xlm-roberta-large-finetuned-conll03-english - XLM-RoBERTa基于命名实体识别模型支持百余种语言
XLM-RoBERTaHuggingface模型迁移学习命名实体识别Github开源项目自然语言处理多语言模型
xlm-roberta-large-finetuned-conll03-english是基于XLM-RoBERTa的多语言命名实体识别模型,预训练涵盖百余种语言,并经英语CoNLL-2003数据集微调。适用于命名实体识别、词性标注等标记分类任务,具备出色的多语言处理能力。模型由Facebook AI团队开发,在Hugging Face平台开放使用。使用时需注意潜在偏见和局限性。
t5-large - 统一文本到文本格式的大规模多语言NLP模型
模型多任务学习Github开源项目Huggingface迁移学习文本生成T5自然语言处理
T5-Large是一个基于Text-To-Text Transfer Transformer架构的NLP模型,拥有7.7亿参数。该模型采用统一的文本到文本格式,能够处理机器翻译、文档摘要、问答和分类等多种任务。T5-Large在C4语料库上进行预训练,支持英语、法语、罗马尼亚语和德语,并在24项NLP任务中展现出优秀性能。这个versatile模型为各种文本处理应用提供了强大的基础。
t5-v1_1-xl - Google T5-v1_1-xl:优化的大规模预训练语言模型
Huggingface模型迁移学习文本到文本转换GithubT5预训练模型开源项目自然语言处理
t5-v1_1-xl是Google T5语言模型的升级版本,对原始T5进行了多项技术改进。主要优化包括采用GEGLU激活函数、预训练阶段关闭dropout、专注于C4数据集预训练等。该模型调整了架构参数,增大了d_model,减小了num_heads和d_ff。作为基础模型,t5-v1_1-xl需要针对具体任务进行微调。它为自然语言处理领域的迁移学习奠定了坚实基础,可广泛应用于文本摘要、问答系统、文本分类等多种任务。
t5-base - 多语言自然语言处理的统一文本转换模型
Huggingface多任务学习模型迁移学习文本到文本转换Github开源项目自然语言处理T5模型
T5-base是一个具有2.2亿参数的语言模型,将NLP任务统一为文本到文本格式。该模型在机器翻译、摘要、问答和分类等任务中表现优异,支持多种语言。T5-base采用创新的预训练方法,结合无监督和有监督任务,在24个NLP任务中进行了评估,为NLP研究和应用提供了强大支持。
distilbert-base-multilingual-cased - 提升效率的多语言轻量级BERT模型,支持104种语言
模型维基百科DistilBERT迁移学习Github多语言模型Huggingface开源项目自然语言处理
distilbert-base-multilingual-cased是BERT基础多语言模型的轻量级版本,支持104种语言。该模型包含6层、768维度和12个头,总参数量为1.34亿。它在多语言维基百科数据上预训练,适用于掩码语言建模和各种下游任务的微调。与原版相比,这个模型在保持性能的同时将运行速度提高了一倍,为多语言自然语言处理任务提供了更高效的解决方案。
flan-t5-base - 基于T5架构的多语言文本生成模型
模型多语言迁移学习Github指令微调开源项目HuggingfaceFLAN-T5自然语言处理
FLAN-T5 base是基于T5架构的多语言文本生成模型,在1000多个任务上进行了指令微调。该模型支持翻译、问答、推理等自然语言处理任务,在零样本和少样本学习方面表现优异。FLAN-T5 base不仅覆盖多种语言,还能在有限参数下实现与更大模型相当的性能,为研究人员提供了探索语言模型能力和局限性的有力工具。
t5-11b - 统一框架下的多语言文本转换模型
模型Github文本转换预训练模型开源项目Huggingface迁移学习T5自然语言处理
T5-11B是一个基于Text-To-Text Transfer Transformer架构的大型语言模型,拥有110亿参数。该模型采用统一的文本到文本格式,能够处理机器翻译、文档摘要、问答和分类等多种NLP任务。T5-11B在Colossal Clean Crawled Corpus (C4)上进行预训练,并在24个任务上评估性能。模型支持英语、法语、罗马尼亚语和德语,展现出优秀的迁移学习能力,为自然语言处理应用奠定了坚实基础。
t5-v1_1-base - Google T5模型的改进版本 专注于文本到文本的转换任务
Huggingface模型迁移学习GithubT5预训练模型开源项目自然语言处理C4数据集
t5-v1_1-base是Google T5模型的升级版,引入GEGLU激活函数并采用无dropout预训练策略。该模型仅在C4数据集上进行预训练,使用前需针对特定任务微调。在文本摘要、问答和分类等多个自然语言处理任务中,t5-v1_1-base展现出卓越性能,为NLP领域提供了新的研究方向。
tf_efficientnet_b0.ns_jft_in1k - EfficientNet变体用于图像分类与特征提取
模型神经网络开源项目Huggingface迁移学习图像分类EfficientNet特征提取Github
tf_efficientnet_b0.ns_jft_in1k模型基于EfficientNet架构,通过Noisy Student半监督学习在ImageNet-1k和JFT-300m数据集上训练。拥有520万参数,0.4 GMAC,支持224x224图像输入。这一轻量级模型适用于图像分类、特征提取和嵌入生成,为计算机视觉应用提供高效且多功能的解决方案。
food - 基于Vision Transformer的101种美食图像分类模型
ViTHuggingface图像分类模型迁移学习深度学习Github开源项目食物识别
该模型是基于google/vit-base-patch16-224-in21k预训练模型在food101数据集上微调的图像分类模型。采用Vision Transformer架构,经5轮训练后在评估集上达到89.13%的准确率。模型能识别101种不同类型的美食,可应用于餐饮行业的图像自动分类和识别。训练过程使用Adam优化器和线性学习率调度器,batch size为128。
distilbert-base-cased-finetuned-conll03-english - 基于DistilBERT的英语命名实体识别模型
Huggingface模型迁移学习命名实体识别GithubDistilBERT开源项目CoNLL-2003自然语言处理
这是一个基于distilbert-base-cased模型微调的英语命名实体识别(NER)工具。该模型在conll2003英语数据集上训练,对大小写敏感,在验证集上达到98.7%的F1分数。它能够有效识别和分类文本中的人名、地名和组织名等命名实体,为各种自然语言处理任务提供支持。
bert_uncased_L-4_H-256_A-4 - 精简BERT模型系列适用于计算资源受限场景
模型BERTGithub开源项目Huggingface迁移学习模型压缩自然语言处理知识蒸馏
bert_uncased_L-4_H-256_A-4是BERT模型系列中的一款,专为计算资源受限环境设计。该模型保留了标准BERT架构和训练目标,但规模更小。它可进行常规微调,在知识蒸馏中表现尤佳。此项目旨在支持资源有限的机构开展研究,并鼓励探索创新方向,而非单纯扩大模型规模。
bert-base-personality - BERT模型驱动的Big Five人格特质预测工具
模型BERT迁移学习性格预测人工智能GithubHuggingface开源项目大五人格
bert-base-personality是一个利用BERT模型进行人格特质预测的开源工具。通过迁移学习和微调技术,该模型能够基于文本输入准确预测Big Five人格特质中的外向性、神经质、宜人性、尽责性和开放性五个维度。这个项目不仅展示了迁移学习在机器学习领域的应用潜力,同时也凸显了BERT模型在人格分析任务中的卓越表现。
vit_large_patch16_224.augreg_in21k_ft_in1k - 预训练ViT大模型实现高性能图像分类与特征提取
ImageNet模型视觉转换器图像分类迁移学习GithubtimmHuggingface开源项目
这是一个基于Vision Transformer (ViT)架构的大型图像处理模型,在ImageNet-21k数据集上预训练,并在ImageNet-1k上微调。模型采用了先进的数据增强和正则化技术,适用于图像分类和特征提取任务。它包含3.04亿参数,处理224x224尺寸的输入图像。通过TIMM库,用户可以方便地使用该模型进行图像分类和特征嵌入提取。由于在大规模数据集上训练,该模型展现出卓越的图像理解能力。
相关文章
PyTorch深度学习:从入门到精通
2024年08月30日
Models Genesis: 革新医学图像分析的开源项目
2024年09月04日
PyKale: 知识感知的跨领域机器学习工具包
2024年09月04日
Offsite-Tuning:突破性的隐私保护迁移学习框架
2024年09月05日
Awesome Adapter Resources: 探索参数高效的自然语言处理技术
2024年09月05日
DIVA: 利用扩散反馈提升CLIP视觉能力的创新方法
2024年09月05日
Computer Vision in the Wild: 开启计算机视觉的新纪元
2024年09月05日
PyContinual: 一个易用且可扩展的持续学习框架
2024年09月05日
ContinualLM: 革新语言模型的持续学习框架
2024年09月05日