#迁移学习
vit-base-cats-vs-dogs - 基于Vision Transformer的猫狗图像分类模型
Huggingface图像分类模型迁移学习猫狗数据集Github开源项目ViT模型Hugging Face
该模型是基于google/vit-base-patch16-224-in21k在cats_vs_dogs数据集上微调的图像分类模型。采用Vision Transformer架构,在评估集上实现98.83%的准确率。模型可用于宠物识别、动物摄影分类等猫狗图像分类任务。开发者可以方便地将其集成到各种应用中,实现高效的猫狗识别功能。
t5-v1_1-small - Google T5模型的改进版:通用文本处理框架
模型迁移学习文本到文本转换Github预训练模型Huggingface开源项目T5自然语言处理
t5-v1_1-small作为Google T5模型的升级版,引入了GEGLU激活函数并在预训练阶段移除了dropout。模型在C4数据集上完成预训练,需要针对特定任务进行微调。其统一的文本到文本框架使其能够处理包括摘要、问答和文本分类在内的多种NLP任务,为迁移学习研究提供了新的可能性。
KR-FinBert-SC - 金融情感语义分析的最新进展
金融领域模型Github开源项目自然语言处理HuggingfaceKR-FinBert情感分析迁移学习
KR-FinBert-SC利用金融语料库进行预训练和微调,以提高NLP中的情感分析性能。该模型训练涉及韩国维基百科、新闻文章和法律文本等,扩展数据集超过12GB,并添加了经济新闻和证券分析报告以支持迁移学习。在50,000条标记数据中,该模型的情感分类准确率达到96.3%。
japanese-roberta-base - 日语RoBERTa模型适用于掩码语言建模
Github开源项目日语NLPjapanese-roberta-base模型transformersHuggingface模型训练迁移学习
此项目展示了一个经过日本CC-100和维基百科数据集训练的日语RoBERTa模型,专注于掩码语言建模。该模型在12层768隐藏单元的架构中实现了良好的语义预测能力,适合自然语言处理应用,且支持自定义位置编码。
gpt2-small-spanish - 基于GPT-2的西班牙语自然语言处理模型
西班牙语模型GPT-2迁移学习神经网络训练自然语言处理HuggingfaceGithub开源项目模型
GPT2-small-spanish是一个基于GPT-2 small架构的西班牙语语言模型,通过在西班牙语维基百科数据集上进行迁移学习和微调而成。该模型耗时70小时训练完成,支持文本生成等自然语言处理任务。模型由Datificate团队基于Pierre Guillou的GPorTuguese-2项目开发,在庆熙大学IAI实验室完成训练。作为开源项目,该模型为西班牙语NLP应用提供了重要的基础支持。
muril-base-cased - MuRIL:适用于多种印度语言的多语言BERT模型
Github模型开源项目迁移学习印度语言MuRILHuggingface自然语言处理多语言表征
MuRIL是一种专为17种印度语言及其音译数据预训练的BERT模型。此模型利用公共数据集和新颖的训练方法,在低资源语言处理上表现优异。MuRIL在多个基准任务中超越了传统的mBERT模型,适用于印度语言的多种NLP任务,并附带预处理模块及使用指南以支持有效应用。
相关文章
PyTorch深度学习:从入门到精通
2024年08月30日
Models Genesis: 革新医学图像分析的开源项目
2024年09月04日
PyKale: 知识感知的跨领域机器学习工具包
2024年09月04日
Offsite-Tuning:突破性的隐私保护迁移学习框架
2024年09月05日
Awesome Adapter Resources: 探索参数高效的自然语言处理技术
2024年09月05日
DIVA: 利用扩散反馈提升CLIP视觉能力的创新方法
2024年09月05日
Computer Vision in the Wild: 开启计算机视觉的新纪元
2024年09月05日
PyContinual: 一个易用且可扩展的持续学习框架
2024年09月05日
ContinualLM: 革新语言模型的持续学习框架
2024年09月05日