#预训练

vitmatte-small-distinctions-646 - 基于ViTMatte模型的高效图像抠图技术
图像抠图轻量化ViTMatteHuggingfaceGithub开源项目模型预训练Vision Transformer
ViTMatte模型利用Distinctions-646数据集进行训练,通过与Vision Transformer的结合,实现图像前景的精确分离。此模型简化了传统图像抠图的复杂性,适用于多种应用。可在Hugging Face平台找到该模型的不同版本,以适应各种图像分离需求。
chinese_roberta_L-2_H-128 - 使用多模态预训练优化中文自然语言处理
语言模型RoBERTa预训练模型Github开源项目CLUECorpusSmallHuggingface
该项目包括24种中文RoBERTa模型,使用CLUECorpusSmall数据集进行训练,效果超过较大数据集。模型通过UER-py和TencentPretrain预训练,并支持多模态框架,参数超过十亿。模型可在HuggingFace和UER-py Modelzoo中获取。项目提供详细的训练过程和关键细节,便于结果复现,着重提升中文自然语言处理任务中的性能。
Minerva-3B-base-v1.0 - 意大利语和英语文本生成的开源模型
开源项目模型意大利语MinervaGithubHuggingface大型语言模型预训练偏见
Minerva-3B-base-v1.0是由Sapienza NLP与FAIR及CINECA合作开发的开源大型语言模型,专门在意大利语和英语文本上进行预训练。其采用3亿参数和6600亿标记数设计,基于Mistral架构,可有效进行文本生成。同时指出,这一模型在推理速度和词汇处理方面表现优良,但也可能会生成偏见或不当内容,因此在使用时需注意。
TinyLlama-1.1B-intermediate-step-1195k-token-2.5T - TinyLlama项目中的1.1B模型实现高效计算
Github开源项目TinyLlama模型LLama 2模型参数Huggingface预训练优化
TinyLlama通过创新方法,在2.5万亿tokens数据集上实现预训练,紧凑的1.1B参数设计提高了计算和内存效率,适用于多种开源项目。
samvit_base_patch16.sa1b - 高效的图像特征提取与分类工具
图像分类图像特征提取samvit_base_patch16.sa1bHuggingfaceGithub开源项目模型预训练Vision Transformer
Segment-Anything Vision Transformer(SAM ViT)模型专注于图像特征提取与分类,不含分割头。使用MAE权重进行初始化,并通过SA-1B数据集的预训练,展示出89.7M的参数量及486.4 GMACs的计算性能,适宜处理1024x1024图像。Python代码示例提供了图像分类与嵌入应用方式,用户可通过timm库使用预训练模型‘samvit_base_patch16.sa1b’以提升图像分析效率。
tapas-tiny-finetuned-wtq - TAPAS模型为WikiTable问题提供精准问答解决方案
表格问答Hugging FaceTAPAS预训练模型Github开源项目微调Huggingface
TAPAS模型经过在WikiTable Questions数据集上的精细调优,提供多种版本以满足不同需求。利用相对和绝对位置嵌入选择,在表格问答任务中表现优异。模型通过掩码语言模型和中间预训练增强数值推理能力,并通过添加单元选择头和聚合头微调SQA、WikiSQL和WTQ数据集以提升问答性能。
PharmBERT-uncased - 药品标签处理的BERT模型
Github预训练PharmBERT模型开源项目药品标签Huggingface领域专用模型BERT模型
PharmBERT 是一个专用于药品标签的 BERT 模型,通过领域相关的预训练和微调技术,提高药品信息的提取和处理能力。适合制药和生命科学领域的专业人员使用,PharmBERT 可以有效解析药品文档,提升研发效率。有关更多信息和技术细节,请访问 PharmBERT 的 GitHub 页面。
dino-vits8 - 采用DINO训练的自监督Vision Transformer模型
Github预训练模型开源项目图像分类自监督学习Vision TransformerHuggingfaceDINO
小型Vision Transformer模型使用DINO自监督方法训练,专为ImageNet-1k数据集预训练。模型通过8x8像素的固定大小图像块输入,用于图像表征,无需微调便可用于图像分类任务。ViT模型适合下游任务的特征提取,并可通过线性层进行分类。用户可在Hugging Face上找到适合特定任务的微调版本。
TinyLlama-1.1B-intermediate-step-715k-1.5T - 紧凑型AI模型的快速训练与高效优化
参数紧凑性HuggingfaceTinyLlama开源项目模型GPU预训练GithubLlama模型
TinyLlama项目在90天内利用16台A100-40G GPU完成了1.1B参数模型的预训练,涉及3万亿个令牌。该模型因其紧凑和模块化设计,适用于资源有限的多种应用场合。最新的中间检查点提供了715K步和1.49T令牌的参数,评估基准上表现均有提升。详情请访问TinyLlama GitHub页面。
t5-large-medium - 基于Transformer的日文预训练模型,提高NLP任务性能
Retrieva日语HuggingfaceT5 v1.1开源项目模型预训练GithubTransformer
该T5 v1.1模型基于Transformer架构,专为日文语料进行预训练。通过使用GEGLU激活函数代替ReLU,提升了文本生成质量。模型在预训练时关闭Dropout以提升泛化能力,微调时可重启。训练数据包括mC4/ja和日本Wikipedia,确保日文内容的纯净性。此大型模型拥有约7.7亿参数,适用于广泛的日文自然语言处理任务,表现出优异的性能与适应性。
TinyLlama-1.1B-Chat-v1.0-llamafile - 紧凑型1.1B Llama Chat模型,适用于多种计算需求
预训练Github开源项目对话模型模型HuggingfaceGPU量化TinyLlama
TinyLlama-1.1B-Chat经过3万亿个tokens的预训练,并在90天内优化完成。它提供API和CLI接口,采用与Llama 2相同的架构和分词器,适合内存和计算受限的环境,可以兼容多种开源项目。模型在合成数据集上的微调和与开源工具的对齐,增强了对话生成的多样性和准确性,适用于各种自然语言处理应用。
gpt2-chinese-cluecorpussmall - 中文GPT2预训练模型与多模态扩展简介
UER-pyTencentPretrainHuggingfaceGithub开源项目模型预训练GPT2文本生成
项目涵盖了使用UER-py和TencentPretrain的中文GPT2模型的预训练过程,从GPT2-distil到GPT2-xlarge的多个版本。借助CLUECorpusSmall数据集,这些模型有效支持中文文本生成,并扩展至多模态预训练。模型可通过UER-py Modelzoo或HuggingFace下载,用于实际文本生成应用。
squeezebert-uncased - SqueezeBERT:提高NLP任务效率的高效开源模型
预训练HuggingfaceGithub开源项目模型组卷积微调SqueezeBERT语言模型
SqueezeBERT是一个专注于提高自然语言处理任务效率的无大小写敏感的预训练模型。其架构通过分组卷积替换点对点全连接层,使其在Google Pixel 3设备上运行速度比bert-base-uncased快4.3倍。利用Mask Language Model和Sentence Order Prediction对模型进行了预训练,所使用的数据集包括BookCorpus和English Wikipedia。尽管模型尚未微调,但SqueezeBERT为文本分类任务奠定了坚实基础,建议使用squeezebert-mnli-headless作为起点。
Yi-1.5-34B-Chat - 提升语言理解与推理性能的创新
Github开源项目语言理解模型性能Yi-1.5Huggingface开源模型预训练模型
Yi-1.5通过高质量语料与多样化样本增强模型能力,在编程、数学以及推理任务中取得显著进步。同时,该项目保持出色的语言理解、常识推理和阅读理解能力。该模型在多项基准测试中表现优异,与大型模型相比,具备竞争力。用户可通过多种途径下载该模型,并快速上手操作。如需详细使用指南,请查阅README。