#Transformers

Llama-3.2-1B-Instruct-bnb-4bit - Unsloth技术加速大型语言模型微调
模型模型微调Llama 3.2开源项目HuggingfaceUnsloth性能优化GithubTransformers
本项目展示了利用Unsloth技术微调Llama 3.2等大型语言模型的方法。该技术可将微调速度提升2-5倍,同时降低70%内存占用。项目为Llama 3.2、Gemma 2和Mistral等多个模型提供免费Google Colab笔记本,便于用户进行模型微调。这一方法适合各层级用户,能有效提升模型训练效率。
typo-detector-distilbert-en - 基于DistilBERT的英文拼写错误检测模型
模型token分类开源项目Huggingface拼写错误检测NLPGithubTransformersDistilBERT
typo-detector-distilbert-en是一个开源的英文拼写错误检测模型,基于DistilBERT架构。该模型能以98.5%的召回率和99.2%的精确度识别文本中的拼写错误。它通过Transformers库实现,便于集成到现有项目中。这个模型适用于文本编辑、内容审核等多种场景,可有效提升文本质量。
minilm-uncased-squad2 - MiniLM抽取式问答模型在SQuAD 2.0数据集实现76分精确匹配
SQuAD 2.0Transformers开源项目Huggingface问答模型Haystack模型MiniLMGithub
MiniLM-L12-H384-uncased是一款专注于英文抽取式问答的开源模型。经SQuAD 2.0数据集训练后,模型可从文本中精确定位答案信息,并通过Haystack或Transformers框架便捷部署。目前在验证集评测中展现出优秀的问答性能,适合搭建生产环境的问答应用。
distil-small.en - 轻量快速的英语语音识别模型,保持高准确率
语音识别Github开源项目高性能TransformersDistil-Whisper模型Huggingface模型压缩
distil-small.en是Whisper模型的轻量化版本,参数量为166M。相比原始模型,速度提升6倍,体积减少49%,在外部数据集上的识别准确率仅降低1%。支持短长音频转录,可通过Transformers等多种框架使用。适合资源受限场景,采用编码器-解码器架构,通过精简解码器提升推理效率。
mxbai-rerank-large-v1 - 基于Transformers的文本智能重排序模型
模型训练自然语言处理开源项目文本处理TransformersGithub机器学习Huggingface模型
mxbai-rerank-large-v1基于Transformers架构设计的文本重排序开源模型。通过对搜索结果进行智能重排序,改善检索系统的准确率。该模型支持跨语言处理,广泛应用于搜索引擎和问答系统,部署简单且性能稳定。
subnet9_track2_3 - Transformers模型卡片 AI模型信息概览
TransformersHugging Face机器学习自然语言处理Huggingface模型卡Github开源项目模型
Transformers模型卡片是一种标准化文档,汇总了AI模型的关键信息。它涵盖了模型的基本属性、应用场景、潜在风险、训练过程和评估结果等方面。通过提供模型架构、数据来源和环境影响等详细信息,模型卡片增强了AI系统的透明度和可解释性,有助于用户更好地理解和应用这些模型。
ruRoberta-large - 面向俄语的大规模预训练语言模型 具备强大Transformer架构
TransformersruRoberta-large自然语言处理Huggingface预训练模型Github开源项目模型俄语
ruRoberta-large是SberDevices团队开发的俄语预训练语言模型,采用Transformer架构。模型使用BBPE分词器,词典规模为50,257,参数量达3.55亿,在250GB数据集上训练。主要应用于掩码填充任务,为俄语自然语言处理提供基础支持。该模型是俄语预训练模型家族中的一员,旨在推进俄语NLP研究与应用。
ruBert-base - 专为俄语遮蔽填充任务优化的Transformer预训练语言模型
语言模型ruBertPyTorchTransformers模型Github开源项目自然语言处理Huggingface
ruBert-base是一个专为俄语遮蔽填充任务优化的预训练语言模型。该模型基于Transformer架构,由SberDevices团队开发,采用BPE分词器,词典大小12万token,模型参数量1.78亿。模型使用30GB训练数据,是俄语自然语言处理领域的重要研究成果。ruBert-base遵循Apache-2.0许可证,为俄语NLP应用提供了强大的基础支持。
rugpt3small_based_on_gpt2 - 俄语预训练语言模型基于GPT-2架构
Huggingface俄语TransformersGPT开源项目预训练模型模型Github自然语言处理
rugpt3small_based_on_gpt2是SberDevices团队开发的俄语预训练语言模型。基于GPT-2架构,该模型在80B个token上训练约3轮,序列长度为1024,并进行了2048上下文长度的微调。训练过程耗时一周,使用32个GPU。该模型为俄语自然语言处理提供了坚实基础,其详细设计和评估已在相关论文中记录。
whisper-small-fa - Whisper-small-fa模型在Common Voice数据集上的语音识别性能
训练超参数TransformersHuggingfaceGithub开源项目模型模型评估数据集语音识别
Whisper-small-fa是一个基于openai/whisper-small模型在common_voice_17_0数据集上微调的版本,旨在实现高效的自动语音识别。测试集结果显示,该模型的词错误率(WER)为35.4973,体现了其在语音识别中的良好表现。模型训练中应用了Adam优化器、线性学习率调度器及混合精度技术,从而提高了训练的效率和精确度。
tiny-random-llava-1.5 - 基于LLaVA-1.5的轻量级多模态模型配置工具
计算机视觉开源项目TransformersLLaVA自然语言处理模型Huggingface深度学习Github
tiny-random-llava-1.5是一个基于LLaVA-1.5架构的轻量级多模态模型配置工具。通过自定义配置参数,如减少隐藏层数量、缩小中间层大小和降低注意力头数,该工具显著缩减了模型规模。它支持快速原型开发和测试,并可将模型和处理器轻松推送至Hugging Face Hub。这个工具主要用于多模态AI应用的快速验证和实验,适合开发者进行初步测试和概念验证。
segformer-b3-finetuned-ade-512-512 - 改进版SegFormer模型,提升语义分割精度与效率
图像分割Github模型ADE20k开源项目HuggingfaceSegFormer语义分割Transformers
SegFormer在ADE20k数据集上微调后,在高分辨率下展现出卓越的语义分割能力。它结合了层次Transformer编码器和轻便MLP解码器,通过ImageNet-1k预训练和后续微调,适合多样化的图像分割应用,提供多种版本以匹配不同需求。
bert-base-arabic-finetuned-emotion - bert-base-arabic 模型在情感识别中的应用与优化
Transformers阿拉伯文本bert-base-arabic-finetuned-emotion模型Github开源项目情感检测文本分类Huggingface
本项目展示了一种基于bert-base-arabic的微调情感检测模型,在emotone_ar数据集上实现了74%的准确率和F1分数。该模型通过Transformer技术增强了情感分析能力,适用于阿拉伯语文本处理。用户可以在Hugging Face平台找到此预训练模型,并应用于其自然语言处理任务。
subnet9_Aug17 - transformers模型的特点与优化指导
Github模型开源项目碳排放偏见Huggingface训练数据模型卡Transformers
文档介绍了transformers库中的模型,涵盖开发细节、使用场景及局限性。根据模型卡的建议,用户可以了解模型的偏见、风险和局限,及如何开始使用。简要说明了性能评估、环境影响和技术规格,并提供起步代码和细节。详细信息建议查看相关存储库和文献。