#DistilBERT

distilbert-base-cased-finetuned-conll03-english - 基于DistilBERT的英语命名实体识别模型
Github开源项目自然语言处理模型命名实体识别Huggingface迁移学习DistilBERTCoNLL-2003
这是一个基于distilbert-base-cased模型微调的英语命名实体识别(NER)工具。该模型在conll2003英语数据集上训练,对大小写敏感,在验证集上达到98.7%的F1分数。它能够有效识别和分类文本中的人名、地名和组织名等命名实体,为各种自然语言处理任务提供支持。
distilbert-base-uncased - Habana Gaudi处理器的DistilBERT训练配置方案
Github开源项目深度学习模型训练模型HuggingfaceDistilBERTHPUHabana
这是一个用于Habana Gaudi处理器(HPU)的DistilBERT基础模型配置文件,集成了AdamW实现、梯度裁剪和混合精度训练功能。借助Optimum Habana接口实现模型在HPU设备上的训练和推理,支持问答等任务处理,可使用bf16混合精度进行训练
Gender-Classification - DistilBERT微调模型实现高精度性别分类
Github开源项目深度学习模型训练模型Huggingface数据分类性别识别DistilBERT
Gender-Classification是一个基于distilbert-base-uncased模型微调的性别分类项目。模型经过5轮训练,在验证集上达到了接近100%的分类准确率。项目采用Adam优化器和线性学习率调度器,学习率为2e-05。模型基于Transformers 4.25.1和PyTorch 1.13.0框架开发,为性别识别任务提供了一个参考实现。
distilbert-base-uncased-finetuned-sst-2-english - 基于SST-2数据集微调的DistilBERT情感分析模型达到91.3%分类准确率
Github开源项目机器学习模型Huggingface文本分类DistilBERTSST-2模型偏见
这是一个在SST-2数据集上微调的DistilBERT情感分析模型,通过优化学习参数实现91.3%的分类准确率。模型支持英文文本的情感二分类,但在处理不同国家相关文本时存在潜在偏见。作为一个轻量级BERT变体,该模型在保持性能的同时显著降低了计算资源需求。
toxic-comment-model - 使用DistilBERT进行在线毒性评论分类的模型与偏见分析
Github开源项目模型Huggingface偏差DistilBERT毒性评论培训数据
该模型基于DistilBERT进行精调,专为在线毒性评论分类设计。尽管总体表现出色,但在识别某些身份群体时表现出偏见,如穆斯林和犹太人。通过示例代码能快速应用此模型,其在10000条测试数据中取得94%的准确率,但f1-score为0.59。更多信息及训练代码可在指定GitHub仓库获取。
distilbert-base-uncased-finetuned-sst-2-english-openvino - 基于DistilBERT的情感分析模型 OpenVINO优化版达91.3%准确率
Github开源项目模型微调OpenVINO模型情感分析Huggingface文本分类DistilBERT
本项目基于DistilBERT模型,在SST-2数据集上微调后转换为OpenVINO格式,专注于文本情感分类。模型在开发集上的准确率达91.3%,并支持通过Transformers pipeline快速部署。OpenVINO优化提升了推理效率,使其更适合生产环境中的情感分析应用。项目提供了简单的使用示例,方便开发者快速集成和应用。
distilbert-NER - 一个精简、高效的命名实体识别模型
Github开源项目AI模型模型命名实体识别HuggingfaceDistilBERTCoNLL-2003distilbert-NER
distilbert-NER是DistilBERT的精简版本,专为命名实体识别(NER)任务优化,能够识别地点、组织、人物等实体。相比BERT,参数更少,具备更小的模型体积和更高的速度,并在CoNLL-2003数据集上精细调优,具备良好的精度和性能。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号