#意大利语
umberto-wikipedia-uncased-v1 - UmBERTo模型专注意大利语NLP任务
Github开源项目语言模型模型Huggingface意大利语UmBERTo词汇表标记
UmBERTo Wikipedia Uncased是基于Roberta的意大利语语言模型,利用SentencePiece和Whole Word Masking技术进行训练。该模型展示出在命名实体识别和词性标注任务中的高表现,尤其是在F1和精确度指标上。模型训练于小规模的意大利语Wikipedia语料库,为意大利语应用提供支持。可以在huggingface平台上获取并进行应用测试。
Anita - 意大利语问答模型为客户支持和信息检索提供有效解决方案
Github开源项目Transformer问答模型Huggingface自动化客户支持意大利语DeepMount00/Anita
该模型专注于处理意大利语问答任务,适用于需要识别最相关答案上下文的场景。通过基于Transformer的架构,该模型针对意大利语的特性进行了优化,适合用于客户支持自动化、教育工具以及信息检索系统,提升应用效果。
SeewebLLM-it - 意大利语高效微调语言模型
人工智能Github开源项目微调模型HuggingfaceLlama2意大利语Seeweb
SeewebLLM-it是一款针对意大利语优化的语言模型,基于LLama-2-7b-chat-hf精细微调,在Seeweb Cloud GPU的支持下经过训练,涵盖了约300个意大利语对话实例。虽然目前的输出在准确性上还需进一步提升,但随着训练数据集的扩展,该模型未来可在更多领域展现潜力。
Italia-9B-Instruct-v0.1 - 意大利语大型语言模型,适用于金融和公共管理等关键领域
Github开源项目大语言模型数据安全模型Huggingface意大利语Italia 9B企业高可靠性
Italia-9B是开放源代码的意大利语大型语言模型,由iGenius和Cineca合作开发,使用Leonardo超级计算机进行训练。该模型适用于金融和公共管理领域,其设计符合欧洲AI法规,确保生成内容的可靠性和数据安全性。具备全面的意大利语词汇和文化知识,适用于自动化内容生成和领域研究。
Minerva-350M-base-v1.0 - 意大利和英语数据驱动的开源LLM模型
大型语言模型Github开源项目预训练模型HuggingfaceMinerva偏见意大利语
Minerva-350M-base-v1.0是一个基于350百万参数的开源语言模型,使用意大利语和英语数据进行训练。这一模型由Sapienza NLP、FAIR及CINECA共同开发,提升双语文本生成。使用时需注意可能存在的偏见与不当内容。
minerva-chat-v0.1-alpha-sft - 优化智能聊天引擎,提供更高效的用户交互
Github开源项目模型许可证Huggingface意大利语内容标签Minerva SFT非商业
Minerva-chat-v0.1-alpha-sft项目致力于用先进技术优化用户交互体验,提升聊天质量和效率。项目的特点包括快速响应和强大的语言适应能力,以及稳定的技术架构,为智能聊天领域提供了有价值的解决方案。
Volare - Gemma优化版智能对话模型实现深度上下文理解
人工智能Github开源项目语言模型模型微调模型GemmaHuggingface意大利语
Volare是一个专注于上下文理解和RAG任务处理的开源对话模型,基于Gemma7B开发并经过优化。模型在多个标准测试集中展现出优秀性能,平均准确率超过55%。支持CPU/GPU环境运行且提供多种量化版本,能够灵活应用于各类文本处理场景。该项目由Moxoff团队开发,采用公开数据集训练,确保了模型的可靠性和实用性。
universal_ner_ita - 意大利语命名实体识别,使用零样本学习适用于多领域
Github开源项目Hugging Face模型命名实体识别Huggingface零样本学习GLiNER意大利语
该模型适用于意大利语命名实体识别,通过零样本学习实现对多种实体的识别,无需特定训练。可联系Michele Montebovi进行定制以提升性能。模型支持CPU运行并可通过浏览器直接体验。
Llama-3.1-8b-ITA - 意大利语优化版Llama-3.1语言模型实现79.17%测试精确度
Github开源项目自然语言处理语言模型模型模型评估Huggingface意大利语Llama-3.1-8b-ITA
Llama-3.1-8b-ITA是一个专注意大利语优化的大型语言模型,采用Meta-Llama-3.1-8B-Instruct架构。模型在IFEval零样本测试达到79.17%准确率,支持Python环境部署,可用于文本生成。在Open LLM排行榜中,BBH测试达30.93%,MMLU-PRO达31.96%,整体表现稳定。
Minerva-3B-base-v1.0 - 意大利语和英语文本生成的开源模型
大型语言模型Github开源项目预训练模型HuggingfaceMinerva偏见意大利语
Minerva-3B-base-v1.0是由Sapienza NLP与FAIR及CINECA合作开发的开源大型语言模型,专门在意大利语和英语文本上进行预训练。其采用3亿参数和6600亿标记数设计,基于Mistral架构,可有效进行文本生成。同时指出,这一模型在推理速度和词汇处理方面表现优良,但也可能会生成偏见或不当内容,因此在使用时需注意。
LLaMAntino-2-7b-hf-ITA - 意大利语自然语言生成的大型语言模型
Github开源项目模型自然语言生成Huggingface超级计算机意大利语QLoraLLaMAntino-2-7b
LLaMAntino-2-7b 是一款专门适配意大利语的 LLaMA 2 大型语言模型,旨在支持自然语言生成任务。该模型采用 QLora 方法在 clean_mc4_it 中等数据集上进行训练,为意大利 NLP 研究提供基础。由 Pierpaolo Basile 等人开发,并获得 PNRR 项目 FAIR 的支持,在 Leonardo 超级计算机上运行。代码尚未发布,更多信息可通过 GitHub 获取。此模型以 Llama 2 社区许可证开放,适合应用于意大利语的自然语言处理任务。
Qwen2-1.5B-ITA-Instruct - Qwen2-1.5B-ITA-Instruct模型通过强化意大利语的加速训练
Github开源项目模型微调模型Huggingface意大利语Unslothapache-2.0
Qwen2-1.5B-ITA-Instruct 通过 Unsloth 连续预训练模式提升意大利语表现,初步微调使用 gsarti/clean_mc4_it 数据集,随后借助 FreedomIntelligence/alpaca-gpt4-italian 数据集进行指示性微调,实现训练效率翻倍,综合性能在意大利语模型排行榜上有出色表现。
multi-sentence-BERTino - 意大利语句子嵌入模型的功能与应用
Github开源项目语义搜索模型Huggingface句子嵌入句子相似性意大利语multi-sentence-BERTino
multi-sentence-BERTino是专为意大利语设计的句子嵌入模型,依托sentence-transformers实现高效的建模。该模型使用mmarco italian和stsb italian数据集进行训练,可用于语义搜索和聚类,支持两种操作方式:使用sentence-transformers库或HuggingFace Transformers。文档包含训练参数和评估结果,详细描述了完整模型架构,适合各种自然语言处理任务。
maestrale-chat-v0.4-beta - 优化意大利语语言处理的SFT与DPO对齐模型
Github开源项目语言模型微调模型Huggingface意大利语模型描述Maestrale-chat
该模型专注于意大利语处理,基于Mistral-7b模型在大规模高质量语料库上的预训练,并结合了occiglot模型。对170万次对话和指令进行微调后,提升了数学、推理能力和拉丁文翻译能力。适用于多种应用场景,如生成Mermaid思维导图和SQL代码,采用ChatML提示格式。此外,作为Beta版设计,模型具有‘安全性’,能够拒绝有害问题的回答。
LLaMAntino-2-chat-13b-hf-UltraChat-ITA - 意大利语对话支持增强的大语言模型
Github开源项目大语言模型自然语言处理模型AI研究Huggingface意大利语LLaMAntino-2-chat-13b-UltraChat
这是一个经过指令微调的意大利语大语言模型。使用QLora技术训练,并基于UltraChat数据集的意大利语版本。项目开发由Leonardo超级计算机支持,并适用于多种意大利语对话场景的云端推理。
LLaMAntino-3-ANITA-8B-Inst-DPO-ITA - LLaMAntino-3意大利语文本生成模型
Github开源项目自然语言处理模型模型评估Huggingface多语言模型意大利语LLaMAntino
基于Meta Llama 3技术的LLaMAntino-3模型特别为意大利NLP研究开发,通过AI2推理挑战、HellaSwag和TruthfulQA等任务的微调与评估,实现卓越的文本生成和准确性表现。支持多语言输入,尤其是在意大利语环境中高效处理文本生成任务。