#微调模型

french-xml-model-a - XLM-RoBERTa微调的法语自然语言处理模型
xlm-roberta-base微调模型自然语言处理文本分类模型Github开源项目Huggingface机器学习
french-xml-model-a是基于FacebookAI/xlm-roberta-base微调的法语自然语言处理模型。在评估集上,该模型的准确率为93.22%,F1分数达0.8711。模型使用Adam优化器和线性学习率调度器,经3轮训练后性能最佳。这一模型可应用于各种法语自然语言处理任务,为相关研究和开发提供支持。
roberta-base-finetuned-abbr - RoBERTa微调模型实现高精度缩写检测
模型PLOD数据集命名实体识别GithubRoBERTa微调模型Huggingface开源项目自然语言处理
这是一个基于roberta-base在PLOD-filtered数据集上微调的模型,专门用于缩写检测。模型在评估中表现优异,精确率0.9645,召回率0.9583,F1值0.9614。采用掩码语言建模预训练,学习双向语言表示,适用于序列标注特别是缩写检测任务,为NLP应用提供有力支持。
MistralLite - 适用于长文本处理与问答任务的优化语言模型
开源项目微调模型MistralLite模型问答系统Huggingface长文本处理亚马逊云服务Github
MistralLite作为一种优化的语言模型,基于Mistral-7B,通过适应性转子嵌入和滑窗技术,支持32K tokens的长文本处理。它适用于长文本检索、摘要和问答等应用,尤其适合资源有限的环境。可在单个AWS实例轻松部署,支持HuggingFace TGI和vLLM等框架,适合复杂文本场景的精准解析。
bert-small-pretrained-finetuned-squad - 小型BERT模型在SQuAD数据集上的精细调优结果
SQuAD数据集开源项目微调模型准确率训练超参数bert-small-pretrained-finetuned-squad模型HuggingfaceGithub
项目使用SQuAD数据集对bert-small模型进行了精细调优,提升了性能,精确匹配率为72.20%,F1评分为81.32%。该模型基于anas-awadalla的预训练版本,通过超参数优化提升了问答系统的精准度,适合注重效率和模型紧凑性的开发者与研究人员使用。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号