#bert-base-uncased
bert-base-uncased-finetuned-semeval24 - BERT微调模型在文本分类任务中的出色表现
准确率Github开源项目F1Huggingfacebert-base-uncased损失精调模型
该微调模型基于google-bert/bert-base-uncased,采用Adam优化器和线性学习率调度策略,经过5个学习周期,在评估集合上取得了0.8254的准确率和0.8237的F1值,适用于需要精确度的文本分类任务。
bert-base-uncased-yelp-polarity - BERT模型基于Yelp评论数据集实现高准确率情感分析
bert-base-uncased自然语言处理开源项目模型TextAttackGithubHuggingface模型微调序列分类
该项目基于bert-base-uncased模型,利用TextAttack框架和yelp_polarity数据集进行微调,构建了一个文本情感分类器。经过5轮训练,模型在评估集上达到96.99%的准确率。支持最大256的序列长度,专门用于Yelp评论的情感分析。模型采用16的批次大小和5e-05的学习率,展现出优秀的性能表现。
bert-base-uncased-squad2 - 使用BERT模型提升问答任务的准确性
问题回答开源项目模型GithubHuggingface模型转换深度学习Haystackbert-base-uncased
该项目使用bert-base-uncased模型在SQuAD 2.0数据集上执行问答任务,与Haystack框架结合以实现文档层面的强大问答功能。性能方面,该模型在精确匹配和F1指标上达到了75.65和78.61,显示了其在提取式问答中的有效性。项目还包括详细的超参数设置和使用指南,便于快速部署。
bert-base-uncased-ag-news - 基于BERT的文本序列分类模型
开源项目模型TextAttackGithubHuggingface精度ag_news数据集序列分类bert-base-uncased
bert-base-uncased模型通过TextAttack和ag_news数据集进行微调,专为文本序列分类任务优化。经过5轮训练并采用交叉熵损失函数,该模型在第3轮时达到了0.951的高准确率。该模型设置批量大小为16,学习率为3e-05,最大序列长度为128,适用于高效准确的文本分类任务。了解更多信息请访问TextAttack的Github页面。