#评估结果

Index-1.9B - 多语言对话与角色扮演支持的高性能模型
Github开源项目开源模型Index-1.9B对话模型评估结果
Index-1.9B系列模型集成了SFT和DPO,显著提升了多语言对话和翻译性能。该系列包含基础模型、纯净模型、对话模型和角色扮演模型,特别适用于中文和东亚语言环境。最新更新包含适配llamacpp和Ollama的版本,并开放了衰减前的检查点供研究使用。提供高效的量化方法和详细的微调指南,确保模型在实际应用中的出色表现,开发者可通过丰富的定制和优化选项提升模型效果。
suzume-llama-3-8B-multilingual-orpo-borda-half - 多语言性能优化,基于lightblue模型的ORPO改进
Github开源项目模型数据集模型优化Huggingface评估结果多语言模型Suzume ORPO
该项目通过ORPO方法对lightblue基础模型进行微调,提升多种语言的自然语言处理能力。模型优化使用了lightblue/mitsu数据集的重要响应。在MT-Bench测试中,这些ORPO模型比基础模型在多个语言中表现更好,预计将来会有商用版本推出。
olm-roberta-base-dec-2022 - OLM项目的更新模型,增强了语言任务表现
Github开源项目语言模型BERT模型数据集Huggingface评估结果OLM RoBERTa
OLM项目的OLM RoBERTa/BERT模型于2022年12月更新,提升了在标准基准测试中的表现。该模型利用清理后的Common Crawl和Wikipedia数据集进行训练,适用于掩码语言建模和序列分类等任务,并在GLUE任务中表现出色,提供了详细的使用示例。
Arabic-Orpo-Llama-3-8B-Instruct - 优化Meta-Llama-3模型在阿拉伯语文本生成中的表现
Github开源项目文本生成语言模型模型Huggingface评估结果llama3阿拉伯语
本项目利用ORPO技术对Meta-Llama-3-8B-Instruct模型进行了微调,旨在提升其生成阿拉伯语文本的准确性和连贯性。虽然基准测试结果显示基模型略有优势,但经过微调的模型在实际应用中生成的阿拉伯语文本质量更高。训练数据来自2A2I/argilla-dpo-mix-7k-arabic数据集,并通过lighteval工具进行评估,旨在增强英文模型在阿拉伯语言环境下的适应能力。
Delexa-7b - 多基准测试中展现出色表现的开源语言模型探索
Github开源项目文本生成语言模型AI推理模型Huggingface评估结果Delexa-7b
Delexa-7b是开源的大型语言模型,在通用语言任务中表现优越。其在多项基准测试中,包括HellaSwag Challenge,获得了86.49%的准确率。该模型支持生成特定内容,并具备不生成非法内容的能力。在llm-judge平台上的初步评估中,Delexa-7b取得了8.143750的平均得分。其应用领域涵盖STEM推理和AI开发实验,需注意在使用时避免可能的有害生成内容。
TinyMistral-248M - 使用小规模数据集进行高效模型预训练
Github开源项目语言模型微调模型Huggingface评估结果参数Mistral 7B
TinyMistral-248M基于Mistral 7B模型,参数减少至约2.48亿,专为下游任务微调设计。预训练使用了748.8万个实例,支持文本生成功能,拥有约32,768个token的上下文长度。模型在InstructMix评估中的平均困惑度为6.3,未来将在多数据集上增加训练周期,验证无需大数据集即可进行有效预训练的可能性,并在多个指标测试中表现良好。
bangla-bert-base - 预训练孟加拉语模型,增强自然语言处理效果
Github开源项目自然语言处理模型Huggingface评估结果预训练语言模型孟加拉语Bangla-Bert
Bangla BERT Base是一款为孟加拉语开发的预训练语言模型,现已在Hugging Face平台上可用。该模型通过BERT的Masked Language Modeling进行训练,使用来自Bengali Commoncrawl和Wikipedia的语料库,并借助BNLP包进行词汇表构建。採用了bert-base-uncased架构,共有12层、768个隐藏单元、12个注意力头和110M参数。经过100万步训练,它在情感分析、仇恨言论检测和新闻分类等下游任务中表现突出,与多语言BERT和Bengali Electra相比,提高了精度。尤其是在Bengali NER任务中,评估结果相对优秀。该模型已经被应用于多项研究,是处理孟加拉语NLP任务的可靠工具。
finbert-finnsentiment - 芬兰语情感分析的高精度FinBERT模型
Github开源项目模型情感分析许可协议Huggingface评估结果FinBERTFinnSentiment
FinBERT模型通过FinnSentiment数据集进行精调,专为芬兰语情感分析设计。该模型使用90%的数据进行训练,10%用于评估,在准确率、F1评分、精确性和召回率方面表现出色。适用于需要高精度情感分析的场景,并支持研究与商业应用,遵循CC BY 4.0协议。