#DistilBERT

distilbert-base-uncased - 紧凑高效的语言模型,提升下游任务处理速度
模型训练数据使用限制开源项目语言模型Huggingface模型压缩GithubDistilBERT
DistilBERT是一种高效的Transformers模型,比原始BERT更小更快,适合快速推理的下游任务。通过自监督预训练,它支持掩码语言建模和句子预测。主要用于全句任务如分类和问答,尽管继承了部分原模型偏见。在海量公开数据的支持下,DistilBERT在多种任务中表现优异,兼顾性能和速度。可在模型中心查看微调版本。
distilbert-base-cased - DistilBERT:轻量高效的BERT模型,保留核心性能
Huggingface模型机器学习BERTGithubDistilBERT预训练模型开源项目自然语言处理
DistilBERT base model (cased)是BERT base model的轻量版本,通过知识蒸馏技术实现了模型压缩。它在BookCorpus和维基百科上进行自监督预训练,在保持核心性能的同时大幅减小了模型体积,加快了推理速度。这个模型主要用于微调下游NLP任务,如序列分类、标记分类和问答等。在GLUE基准测试中,DistilBERT展现出与原始BERT相当的性能,为需要效率与性能平衡的NLP应用提供了理想选择。
distilbert-base-uncased-finetuned-sst-2-english - 英语文本情感分析的高精度模型
偏见Huggingface模型精度GithubDistilBERT开源项目文本分类
模型由Hugging Face团队微调,适用于SST-2情感分析任务,精度达到91.3%。针对英语文本特性设计,适合单标签分类。适用Python和Transformers库,易于集成。模型可实现高效特征提取,但可能在特定背景下产生偏差,应在应用前充分测试。开放源代码,Apache-2.0许可支持二次开发。
toxic-comment-model - DistilBERT微调的高性能在线评论毒性分类模型
模型文本分类DistilBERTGithub有毒评论开源项目Huggingface机器学习自然语言处理
该模型是基于DistilBERT微调的在线评论毒性分类器,在测试集上达到94%准确率和0.59 F1分数。它易于使用,适合处理各类在线评论,但在某些身份群体相关评论上可能存在偏见。模型使用Kaggle竞赛数据集训练,用户在应用时应注意其在特定群体评论分类上的局限性。
distilbert-base-nli-mean-tokens - 基于DistilBERT的句子嵌入模型用于文本聚类和语义搜索
模型语义搜索DistilBERTGithub文本嵌入sentence-transformersHuggingface开源项目自然语言处理
distilbert-base-nli-mean-tokens是一个基于sentence-transformers框架的句子嵌入模型。它能将文本映射为768维向量,适用于文本聚类和语义搜索。尽管已不推荐使用,但该模型仍是学习句子嵌入技术的典型案例。它展示了如何结合DistilBERT和平均池化生成句向量,可通过sentence-transformers库轻松调用。这个开源项目为自然语言处理领域提供了有价值的参考。
distilbert-base-multilingual-cased-sentiments-student - 基于DistilBERT的多语言情感分析模型
模型情感分析多语言模型开源项目Huggingface零样本蒸馏GithubDistilBERT文本分类
这是一个基于DistilBERT的多语言情感分析模型,通过零样本分类管道在多语言情感数据集上进行蒸馏。模型支持英语、阿拉伯语、德语等多种语言,可用于情感分类任务。采用零样本蒸馏技术,在保持较高准确率的同时,有效降低了模型规模。该模型为多语言情感分析提供了一个高效且灵活的解决方案。
distilbert-base-cased-distilled-squad - DistilBERT问答模型 轻量快速接近BERT性能
模型Github开源项目HuggingfaceSQuAD问答系统自然语言处理DistilBERT知识蒸馏
本模型是DistilBERT-base-cased经SQuAD数据集微调的版本,采用知识蒸馏技术。性能接近BERT,但参数量减少40%,速度提升60%。在SQuAD验证集上F1分数达86.9965,适用于问答任务。支持PyTorch和TensorFlow框架,便于开发者使用。需注意模型可能存在偏见,不宜用于生成事实性内容。
distilbert-base-multilingual-cased - 提升效率的多语言轻量级BERT模型,支持104种语言
模型维基百科DistilBERT迁移学习Github多语言模型Huggingface开源项目自然语言处理
distilbert-base-multilingual-cased是BERT基础多语言模型的轻量级版本,支持104种语言。该模型包含6层、768维度和12个头,总参数量为1.34亿。它在多语言维基百科数据上预训练,适用于掩码语言建模和各种下游任务的微调。与原版相比,这个模型在保持性能的同时将运行速度提高了一倍,为多语言自然语言处理任务提供了更高效的解决方案。
keyphrase-extraction-distilbert-inspec - DistilBERT驱动的科学文献关键短语提取模型
关键词提取Inspec数据集模型Github开源项目Huggingface自然语言处理深度学习DistilBERT
这是一个在Inspec数据集上微调的DistilBERT关键短语提取模型。它能从英文科学文献摘要中自动识别重要关键短语,助力快速把握文档核心内容。模型在Inspec测试集上实现0.49的F1@M分数,相比传统方法更有效地捕捉语义依赖和上下文信息。该模型专为处理英文科技文献设计,在自然语言处理领域展现出色性能。
quote-model-delta - DistilBERT微调的高性能文本分类模型
Huggingface模型机器学习模型微调GithubDistilBERT开源项目自然语言处理Hugging Face
quote-model-delta是一个基于DistilBERT微调的文本分类模型,在评估集上表现优异。模型准确率达93.09%,F1分数为0.8656,采用Adam优化器和线性学习率调度器,经3轮训练。适用于高精度文本分类场景,但具体应用范围和局限性有待进一步研究。
distilbert-base-uncased-distilled-squad - DistilBERT轻量级问答模型
Huggingface模型机器学习GithubDistilBERT开源项目自然语言处理SQuAD问答系统
distilbert-base-uncased-distilled-squad是一个经过知识蒸馏的轻量级问答模型。它基于DistilBERT架构,在SQuAD v1.1数据集上进行了微调。该模型在保留BERT 95%性能的同时,参数量减少40%,速度提升60%。在SQuAD v1.1开发集上,它实现了86.9的F1分数。凭借其高效性能,这个模型适合各种需要快速、准确问答能力的应用场景。
msmarco-distilbert-dot-v5 - 用于语义搜索的句子嵌入模型
模型Github开源项目HuggingfaceMS MARCO句子转换器sentence-transformers语义搜索DistilBERT
msmarco-distilbert-dot-v5是一个基于sentence-transformers的语义搜索模型。它将文本映射到768维向量空间,在MS MARCO数据集上训练。支持sentence-transformers和HuggingFace Transformers库,可进行文本编码和相似度计算。该模型在语义搜索任务中表现优秀,为自然语言处理提供有力支持。
distilbert-base-uncased-mnli - DistilBERT零样本文本分类模型在MNLI数据集上的应用
Huggingface零样本分类模型机器学习GithubDistilBERT开源项目文本分类自然语言推理
DistilBERT零样本文本分类模型在MNLI数据集上微调,适用于多种英语文本分类任务。模型在MNLI和MNLI-mm评估中均达82.0%准确率,展现出优秀性能。虽然使用简便,但需注意潜在偏见问题。模型由Typeform团队开发,在AWS EC2 P3实例上训练。该模型为自然语言处理领域提供了有力工具,同时也引发了对AI公平性的思考。
distilbert-onnx - DistilBERT模型在SQuAD问答任务上的ONNX转换优化
模型DistilBERT问答系统Github知识蒸馏开源项目HuggingfaceONNX转换自然语言处理
本项目提供了distilbert-base-cased-distilled-squad模型的ONNX转换版本。该模型基于DistilBERT-base-cased,经过第二轮知识蒸馏在SQuAD v1.1数据集上微调。在开发集上,模型达到87.1的F1分数,接近BERT bert-base-cased版本的88.7。这一ONNX实现为问答任务提供了轻量高效的解决方案。
my_awesome_model - DistilBERT微调的高效文本分类模型
Huggingface模型机器学习模型微调GithubDistilBERT开源项目自然语言处理Hugging Face
my_awesome_model是一个基于distilbert-base-uncased微调的文本分类模型。该模型在未知数据集上训练,经过3轮迭代后,训练损失降至0.0632,验证损失为0.2355,训练准确率达92.95%。模型采用Adam优化器和多项式衰减学习率。虽然缺乏具体任务信息,但其性能表现显示了良好的文本分类潜力。
distilbert-base-uncased-emotion - DistilBERT情感分析模型:小巧快速且准确
Huggingface情感分析模型GithubDistilBERT开源项目自然语言处理文本分类Hugging Face
这是一个基于DistilBERT的情感分析模型,体积比BERT小40%,速度更快,同时保持93.8%的准确率。模型可将文本分类为6种情感,每秒处理398.69个样本,性能优于BERT、RoBERTa和ALBERT同类模型。该模型采用情感数据集微调,通过简单pipeline即可快速部署使用。
banking-intent-distilbert-classifier - DistilBERT模型实现银行客户查询意图精准分类
Huggingface模型意图分类金融Githubbanking77DistilBERT开源项目自然语言处理
该模型基于DistilBERT架构,在BANKING77数据集上微调,可识别77种银行业务意图,准确率达92.44%。支持快速推理,适用于实时客户查询分析。训练仅需20分钟,成本效益高,为银行客服智能化提供了实用方案。模型能够提高客户服务效率,改善服务质量,助力银行业务数字化转型。
typo-detector-distilbert-en - 基于DistilBERT的英文拼写错误检测模型
模型token分类开源项目Huggingface拼写错误检测NLPGithubTransformersDistilBERT
typo-detector-distilbert-en是一个开源的英文拼写错误检测模型,基于DistilBERT架构。该模型能以98.5%的召回率和99.2%的精确度识别文本中的拼写错误。它通过Transformers库实现,便于集成到现有项目中。这个模型适用于文本编辑、内容审核等多种场景,可有效提升文本质量。
distilbert-base-multilingual-cased-ner-hrl - DistilBERT微调的10语种命名实体识别模型
模型Github多语言模型开源项目HuggingfaceHugging Face命名实体识别自然语言处理DistilBERT
这是一个基于DistilBERT微调的多语言命名实体识别模型,支持10种高资源语言。模型能够识别位置、组织和人名实体,适用于阿拉伯语、德语、英语等多种语言。它使用各语言的标准数据集训练,可通过Transformers库轻松调用。尽管在多语言NER任务中表现优秀,但在特定领域应用时可能存在局限性。
distilbert-base-cased-finetuned-conll03-english - 基于DistilBERT的英语命名实体识别模型
Huggingface模型迁移学习命名实体识别GithubDistilBERT开源项目CoNLL-2003自然语言处理
这是一个基于distilbert-base-cased模型微调的英语命名实体识别(NER)工具。该模型在conll2003英语数据集上训练,对大小写敏感,在验证集上达到98.7%的F1分数。它能够有效识别和分类文本中的人名、地名和组织名等命名实体,为各种自然语言处理任务提供支持。
distilbert-imdb - IMDB电影评论情感分析模型实现92.8%准确率
文本分类模型准确率模型微调IMDB数据集GithubDistilBERTHuggingface开源项目
该文本分类模型通过在IMDB数据集上对distilbert-base-uncased进行微调而来,主要用于电影评论情感分析。模型基于Transformers 4.15.0和PyTorch 1.10.0开发,使用Adam优化器和线性学习率调度器,经过单轮训练在评估集上达到92.8%的准确率。
distilbert-base-uncased - Habana Gaudi处理器的DistilBERT训练配置方案
Habana开源项目深度学习HPU模型模型训练DistilBERTGithubHuggingface
这是一个用于Habana Gaudi处理器(HPU)的DistilBERT基础模型配置文件,集成了AdamW实现、梯度裁剪和混合精度训练功能。借助Optimum Habana接口实现模型在HPU设备上的训练和推理,支持问答等任务处理,可使用bf16混合精度进行训练
distilbert-base-german-cased - 轻量级德语BERT预训练模型
机器学习Github自然语言处理HuggingfaceDistilBERT开源项目模型德语预训练模型
distilbert-base-german-cased是一个基于知识蒸馏技术的德语BERT压缩模型。该模型在维持BERT基础功能的同时减少了模型体积和运算资源消耗,可用于资源受限环境下的德语自然语言处理任务。模型支持大小写敏感的文本处理功能。
Gender-Classification - DistilBERT微调模型实现高精度性别分类
数据分类模型训练开源项目模型性别识别Huggingface深度学习GithubDistilBERT
Gender-Classification是一个基于distilbert-base-uncased模型微调的性别分类项目。模型经过5轮训练,在验证集上达到了接近100%的分类准确率。项目采用Adam优化器和线性学习率调度器,学习率为2e-05。模型基于Transformers 4.25.1和PyTorch 1.13.0框架开发,为性别识别任务提供了一个参考实现。
distilbert-base-uncased-finetuned-sst-2-english - 基于SST-2数据集微调的DistilBERT情感分析模型达到91.3%分类准确率
开源项目文本分类SST-2机器学习DistilBERTGithubHuggingface模型模型偏见
这是一个在SST-2数据集上微调的DistilBERT情感分析模型,通过优化学习参数实现91.3%的分类准确率。模型支持英文文本的情感二分类,但在处理不同国家相关文本时存在潜在偏见。作为一个轻量级BERT变体,该模型在保持性能的同时显著降低了计算资源需求。
toxic-comment-model - 使用DistilBERT进行在线毒性评论分类的模型与偏见分析
毒性评论Huggingface模型开源项目Github偏差培训数据DistilBERT
该模型基于DistilBERT进行精调,专为在线毒性评论分类设计。尽管总体表现出色,但在识别某些身份群体时表现出偏见,如穆斯林和犹太人。通过示例代码能快速应用此模型,其在10000条测试数据中取得94%的准确率,但f1-score为0.59。更多信息及训练代码可在指定GitHub仓库获取。
distilbert-base-uncased-finetuned-sst-2-english-openvino - 基于DistilBERT的情感分析模型 OpenVINO优化版达91.3%准确率
开源项目情感分析文本分类DistilBERTGithubHuggingface模型模型微调OpenVINO
本项目基于DistilBERT模型,在SST-2数据集上微调后转换为OpenVINO格式,专注于文本情感分类。模型在开发集上的准确率达91.3%,并支持通过Transformers pipeline快速部署。OpenVINO优化提升了推理效率,使其更适合生产环境中的情感分析应用。项目提供了简单的使用示例,方便开发者快速集成和应用。
distilbert-NER - 一个精简、高效的命名实体识别模型
distilbert-NER开源项目模型DistilBERTAI模型Github命名实体识别HuggingfaceCoNLL-2003
distilbert-NER是DistilBERT的精简版本,专为命名实体识别(NER)任务优化,能够识别地点、组织、人物等实体。相比BERT,参数更少,具备更小的模型体积和更高的速度,并在CoNLL-2003数据集上精细调优,具备良好的精度和性能。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号