#精调

FireAct: 基于React、Firebase和Stripe的开源SaaS项目框架

3 个月前
Cover of FireAct: 基于React、Firebase和Stripe的开源SaaS项目框架
相关项目
Project Cover

FireAct

FireAct项目提供了语言模型微调的完整解决方案,包括示例代码、提示词和训练数据。该项目详细介绍了如何在Llama和GPT等多任务模型上进行数据生成、监督微调和推理操作。项目包含适用于Alpaca和GPT格式的训练数据样本,并配有使用案例和模型卡,方便快速部署和应用。支持OpenAI和SERP API集成,具体信息请参考项目仓库与Hugging Face模型卡。

Project Cover

gpt-ya2-v2

gpt-ya2-v2利用kpriyanshu256数据集对gpt2模型进行微调,提高了文本生成的因果语言建模性能。主要训练参数包括学习率5e-05和批量大小8,采用Adam优化器和线性学习率调度。模型在测试中达到36.91%的准确性,展示了在文本生成任务中的有效性。

Project Cover

bert-base-uncased-finetuned-semeval24

该微调模型基于google-bert/bert-base-uncased,采用Adam优化器和线性学习率调度策略,经过5个学习周期,在评估集合上取得了0.8254的准确率和0.8237的F1值,适用于需要精确度的文本分类任务。

Project Cover

bengali_language_NER

该项目使用Wikiann数据集微调bert-base-multilingual-cased模型,实现孟加拉语命名实体识别。标签分类涵盖人物、组织、地点,高训练集F1分数达0.9979,测试集为0.9673,并提供实例代码,适合研究语言处理与语义分析的用户。

Project Cover

bert-spanish-cased-finetuned-ner

通过微调,西班牙语BERT cased模型被优化用于命名实体识别任务。使用CONLL Corpora ES数据集,训练数据包含8700条实例,开发数据2200条。在评估集上F1得分为90.17,表现优于其他多语种和TinyBERT模型。采用Huggingface工具包,便于快速应用。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号