#评估结果

Index-1.9B学习资料汇总 - 哔哩哔哩开源的轻量级多语言大模型

2 个月前
Cover of Index-1.9B学习资料汇总 - 哔哩哔哩开源的轻量级多语言大模型

Index-1.9B: 哔哩哔哩自主研发的轻量级多语言大模型

3 个月前
Cover of Index-1.9B: 哔哩哔哩自主研发的轻量级多语言大模型
相关项目
Project Cover

Index-1.9B

Index-1.9B系列模型集成了SFT和DPO,显著提升了多语言对话和翻译性能。该系列包含基础模型、纯净模型、对话模型和角色扮演模型,特别适用于中文和东亚语言环境。最新更新包含适配llamacpp和Ollama的版本,并开放了衰减前的检查点供研究使用。提供高效的量化方法和详细的微调指南,确保模型在实际应用中的出色表现,开发者可通过丰富的定制和优化选项提升模型效果。

Project Cover

suzume-llama-3-8B-multilingual-orpo-borda-half

该项目通过ORPO方法对lightblue基础模型进行微调,提升多种语言的自然语言处理能力。模型优化使用了lightblue/mitsu数据集的重要响应。在MT-Bench测试中,这些ORPO模型比基础模型在多个语言中表现更好,预计将来会有商用版本推出。

Project Cover

olm-roberta-base-dec-2022

OLM项目的OLM RoBERTa/BERT模型于2022年12月更新,提升了在标准基准测试中的表现。该模型利用清理后的Common Crawl和Wikipedia数据集进行训练,适用于掩码语言建模和序列分类等任务,并在GLUE任务中表现出色,提供了详细的使用示例。

Project Cover

Arabic-Orpo-Llama-3-8B-Instruct

本项目利用ORPO技术对Meta-Llama-3-8B-Instruct模型进行了微调,旨在提升其生成阿拉伯语文本的准确性和连贯性。虽然基准测试结果显示基模型略有优势,但经过微调的模型在实际应用中生成的阿拉伯语文本质量更高。训练数据来自2A2I/argilla-dpo-mix-7k-arabic数据集,并通过lighteval工具进行评估,旨在增强英文模型在阿拉伯语言环境下的适应能力。

Project Cover

Delexa-7b

Delexa-7b是开源的大型语言模型,在通用语言任务中表现优越。其在多项基准测试中,包括HellaSwag Challenge,获得了86.49%的准确率。该模型支持生成特定内容,并具备不生成非法内容的能力。在llm-judge平台上的初步评估中,Delexa-7b取得了8.143750的平均得分。其应用领域涵盖STEM推理和AI开发实验,需注意在使用时避免可能的有害生成内容。

Project Cover

TinyMistral-248M

TinyMistral-248M基于Mistral 7B模型,参数减少至约2.48亿,专为下游任务微调设计。预训练使用了748.8万个实例,支持文本生成功能,拥有约32,768个token的上下文长度。模型在InstructMix评估中的平均困惑度为6.3,未来将在多数据集上增加训练周期,验证无需大数据集即可进行有效预训练的可能性,并在多个指标测试中表现良好。

Project Cover

bangla-bert-base

Bangla BERT Base是一款为孟加拉语开发的预训练语言模型,现已在Hugging Face平台上可用。该模型通过BERT的Masked Language Modeling进行训练,使用来自Bengali Commoncrawl和Wikipedia的语料库,并借助BNLP包进行词汇表构建。採用了bert-base-uncased架构,共有12层、768个隐藏单元、12个注意力头和110M参数。经过100万步训练,它在情感分析、仇恨言论检测和新闻分类等下游任务中表现突出,与多语言BERT和Bengali Electra相比,提高了精度。尤其是在Bengali NER任务中,评估结果相对优秀。该模型已经被应用于多项研究,是处理孟加拉语NLP任务的可靠工具。

Project Cover

finbert-finnsentiment

FinBERT模型通过FinnSentiment数据集进行精调,专为芬兰语情感分析设计。该模型使用90%的数据进行训练,10%用于评估,在准确率、F1评分、精确性和召回率方面表现出色。适用于需要高精度情感分析的场景,并支持研究与商业应用,遵循CC BY 4.0协议。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号