Transformers相关AI工具集合—优化与创新的应用指南

T5-Base-finetuned-for-Question-Generation

T5-Base-finetuned-for-Question-Generation

问题生成预训练模型

SQuAD数据集上T5模型的问答生成能力提升研究

MobileLLaMA-1.4B-Base

MobileLLaMA-1.4B-Base

Github模型

简化的1.4B参数Transformer模型,支持快速部署

albert-xxlarge-v1

albert-xxlarge-v1

HPU模型部署

Habana Gaudi处理器上的ALBERT XXL模型运行配置与效率提升方案

subnet9_Aug17

subnet9_Aug17

Github模型

transformers模型的特点与优化指导

bert-base-arabic-finetuned-emotion

bert-base-arabic-finetuned-emotion

Transformers阿拉伯文本

bert-base-arabic 模型在情感识别中的应用与优化

segformer-b3-finetuned-ade-512-512

segformer-b3-finetuned-ade-512-512

图像分割Github

改进版SegFormer模型,提升语义分割精度与效率

whisper-small-fa

whisper-small-fa

训练超参数Transformers

Whisper-small-fa模型在Common Voice数据集上的语音识别性能

tiny-random-llava-1.5

tiny-random-llava-1.5

计算机视觉开源项目

基于LLaVA-1.5的轻量级多模态模型配置工具

ruBert-base

ruBert-base

语言模型ruBert

专为俄语遮蔽填充任务优化的Transformer预训练语言模型

rugpt3small_based_on_gpt2

rugpt3small_based_on_gpt2

Huggingface俄语

俄语预训练语言模型基于GPT-2架构

subnet9_track2_3

subnet9_track2_3

TransformersHugging Face

Transformers模型卡片 AI模型信息概览

ruRoberta-large

ruRoberta-large

TransformersruRoberta-large

面向俄语的大规模预训练语言模型 具备强大Transformer架构

mxbai-rerank-large-v1

mxbai-rerank-large-v1

模型训练自然语言处理

基于Transformers的文本智能重排序模型

distil-small.en

distil-small.en

语音识别Github

轻量快速的英语语音识别模型,保持高准确率

minilm-uncased-squad2

minilm-uncased-squad2

SQuAD 2.0Transformers

MiniLM抽取式问答模型在SQuAD 2.0数据集实现76分精确匹配

typo-detector-distilbert-en

typo-detector-distilbert-en

模型token分类

基于DistilBERT的英文拼写错误检测模型

bert-base-chinese-pos

bert-base-chinese-pos

模型Github

CKIP实验室开发的中文词性标注BERT模型

Llama-3.2-1B-Instruct-bnb-4bit

Llama-3.2-1B-Instruct-bnb-4bit

模型模型微调

Unsloth技术加速大型语言模型微调

distil-large-v2

distil-large-v2

模型Github

高效精简的Whisper语音识别模型

pegasus-samsum

pegasus-samsum

Huggingface模型

PEGASUS模型驱动的对话摘要生成系统