#意大利语模型

Phi-3.5-mini-ITA - 小巧强大的意大利语文本生成模型优化与性能提升
开源项目模型意大利语模型GithubHuggingface文本生成参数高效学习Phi-3.5-mini-ITAtransformers
Phi-3.5-mini-ITA是Microsoft/Phi-3.5-mini-instruct的精调版本,专为提升意大利语文本生成性能而设计。拥有3.82亿参数和128k上下文长度,适用于Hugging Face Spaces等平台的流畅对话。通过Spectrum技术,仅高信噪比层参与训练,提高了参数学习效率。评估显示模型在意大利语处理任务中表现卓越。
SeaPhi3-medium - 意大利语优化AI模型概览
性能指标Github模型意大利语模型Toti Riccardo开源项目模型评估HuggingfaceFinetuned
SeaPhi3-medium是一个优化的意大利语模型,由Toti Riccardo开发,并在Apache-2.0许可协议下发布。该模型源自Phi-3-medium-4k并经过意大利语数据集Seacom/rag-data微调,提升了表现。在意大利语模型排行榜中,该模型在hellaswag_it、arc_it及m_mmlu_it的5-shot测试中的表现备受关注。
Llama-3-8B-4bit-UltraChat-Ita - 意大利语高效文本生成模型
意大利语模型模型性能unsloth文本生成Huggingface开源项目模型Githubllama
Llama-3-8B-4bit-UltraChat-Ita项目利用Unsloth和Huggingface的TRL库,使训练速度提高了两倍。此模型基于unsloth/llama-3-8b-bnb-4bit进行优化,专为意大利语而设计,并在多个标准化准确率测试中表现良好。详细性能对比请参见意大利语言模型排行榜。
bert-base-italian-xxl-uncased - 意大利BERT和ELECTRA模型的开源大规模数据集
BERTGithub开源项目巴伐利亚州立图书馆ELECTRA意大利语模型Huggingface模型
项目由巴伐利亚州立图书馆的MDZ数字图书馆团队开源,专注于训练大规模意大利语BERT和ELECTRA模型。数据来自Wikipedia和OPUS语料库,扩展至OSCAR语料库,数据规模从13GB到81GB不等,兼容PyTorch-Transformers。提供NER和PoS标注任务的结果示例,模型可在Huggingface model hub下载。欢迎通过GitHub参与和反馈。
Qwen2-1.5B-Ita - Qwen2 1.5B高效意大利语语言模型表现接近大型模型
语言模型Github变形金刚库开源项目模型意大利语模型Huggingface性能评估Qwen2 1.5B
Qwen2 1.5B是一款专为意大利语优化的小型语言模型,拥有1.5亿参数,性能接近于9亿参数的ITALIA模型。该模型在意大利语应用中表现优异,特别是在MMLU基准测试中展示卓越的多任务语言理解能力。尽管在ARC和HELLASWAG基准上稍逊一筹,但其综合表现仍具备效率和能力的良好平衡。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号