#意大利语
umberto-wikipedia-uncased-v1 - UmBERTo模型专注意大利语NLP任务
UmBERTo词汇表标记HuggingfaceGithub开源项目模型意大利语语言模型
UmBERTo Wikipedia Uncased是基于Roberta的意大利语语言模型,利用SentencePiece和Whole Word Masking技术进行训练。该模型展示出在命名实体识别和词性标注任务中的高表现,尤其是在F1和精确度指标上。模型训练于小规模的意大利语Wikipedia语料库,为意大利语应用提供支持。可以在huggingface平台上获取并进行应用测试。
Anita - 意大利语问答模型为客户支持和信息检索提供有效解决方案
DeepMount00/Anita自动化客户支持问答Huggingface开源项目模型Github意大利语Transformer
该模型专注于处理意大利语问答任务,适用于需要识别最相关答案上下文的场景。通过基于Transformer的架构,该模型针对意大利语的特性进行了优化,适合用于客户支持自动化、教育工具以及信息检索系统,提升应用效果。
opus-mt-it-en - 基于OPUS数据集的意大利语至英语神经机器翻译模型
机器翻译HuggingfaceOPUS-MT模型英语Github开源项目意大利语神经网络模型
opus-mt-it-en是一个基于transformer-align架构的意大利语至英语神经机器翻译模型。该模型利用OPUS数据集训练,采用normalization和SentencePiece进行预处理。在多个测试集上表现优异,尤其在Tatoeba测试集上获得70.9的BLEU分数和0.808的chr-F分数,显示出较高的翻译质量。此外,该模型在newssyscomb2009和newstest2009等其他测试集上也展现了出色的跨领域翻译能力。
Llama-3-8b-Ita - 基于Llama-3优化的意大利语大型语言模型
模型Github意大利语语言模型开源项目HuggingfaceLlama-3-8b-Ita自然语言处理模型评估
Llama-3-8b-Ita是一个基于Meta-Llama-3-8B模型针对意大利语优化的大型语言模型。该模型在IFEval、BBH和MATH等多项评估任务中表现优异,支持意大利语和英语文本生成。模型可通过Python代码轻松调用,在Open LLM Leaderboard上的平均得分为26.58。Llama-3-8b-Ita在多语言处理方面展现出了良好的性能。
SeewebLLM-it - 意大利语高效微调语言模型
HuggingfaceSeewebGithub开源项目模型人工智能意大利语微调Llama2
SeewebLLM-it是一款针对意大利语优化的语言模型,基于LLama-2-7b-chat-hf精细微调,在Seeweb Cloud GPU的支持下经过训练,涵盖了约300个意大利语对话实例。虽然目前的输出在准确性上还需进一步提升,但随着训练数据集的扩展,该模型未来可在更多领域展现潜力。
Azzurro - 专为意大利语优化的Mistral-7B衍生模型
模型Mistral-7BGithub微调意大利语上下文理解开源项目Huggingface自然语言处理
Azzurro是基于Mistral-7B-v0.2的意大利语大语言模型,经过SFT和LoRA技术优化。模型使用SQUAD-it等公开数据集和自制数据集训练,擅长理解和维护上下文,适用于RAG任务和上下文感知应用。在hellaswag、arc和mmlu评估集上,Azzurro平均得分0.52。该模型易于集成,为意大利语NLP项目提供有力支持。同时提供4位和8位量化版本,适应不同硬件环境。
wav2vec2-large-xlsr-53-italian - XLSR-53微调的开源意大利语语音识别模型
Huggingface模型语音识别Github开源项目意大利语Wav2Vec2XLSR-53Common Voice
这是一个基于Facebook的wav2vec2-large-xlsr-53模型,在Common Voice 6.1意大利语数据集上微调的语音识别模型。模型在测试集上达到9.41%的词错误率和2.29%的字符错误率。支持直接处理16kHz采样的语音输入,无需额外语言模型。项目提供了详细的使用说明和评估脚本,便于研究人员快速应用和测试。
Italia-9B-Instruct-v0.1 - 意大利语大型语言模型,适用于金融和公共管理等关键领域
Italia 9B数据安全企业高可靠性模型Github开源项目大语言模型意大利语Huggingface
Italia-9B是开放源代码的意大利语大型语言模型,由iGenius和Cineca合作开发,使用Leonardo超级计算机进行训练。该模型适用于金融和公共管理领域,其设计符合欧洲AI法规,确保生成内容的可靠性和数据安全性。具备全面的意大利语词汇和文化知识,适用于自动化内容生成和领域研究。
Minerva-350M-base-v1.0 - 意大利和英语数据驱动的开源LLM模型
Huggingface大型语言模型Minerva开源项目预训练模型Github意大利语偏见
Minerva-350M-base-v1.0是一个基于350百万参数的开源语言模型,使用意大利语和英语数据进行训练。这一模型由Sapienza NLP、FAIR及CINECA共同开发,提升双语文本生成。使用时需注意可能存在的偏见与不当内容。
minerva-chat-v0.1-alpha-sft - 优化智能聊天引擎,提供更高效的用户交互
许可证Github模型开源项目意大利语Huggingface内容标签Minerva SFT非商业
Minerva-chat-v0.1-alpha-sft项目致力于用先进技术优化用户交互体验,提升聊天质量和效率。项目的特点包括快速响应和强大的语言适应能力,以及稳定的技术架构,为智能聊天领域提供了有价值的解决方案。
Volare - Gemma优化版智能对话模型实现深度上下文理解
Gemma开源项目模型模型微调语言模型人工智能Huggingface意大利语Github
Volare是一个专注于上下文理解和RAG任务处理的开源对话模型,基于Gemma7B开发并经过优化。模型在多个标准测试集中展现出优秀性能,平均准确率超过55%。支持CPU/GPU环境运行且提供多种量化版本,能够灵活应用于各类文本处理场景。该项目由Moxoff团队开发,采用公开数据集训练,确保了模型的可靠性和实用性。
universal_ner_ita - 意大利语命名实体识别,使用零样本学习适用于多领域
命名实体识别Hugging Face零样本学习模型GLiNERGithub开源项目意大利语Huggingface
该模型适用于意大利语命名实体识别,通过零样本学习实现对多种实体的识别,无需特定训练。可联系Michele Montebovi进行定制以提升性能。模型支持CPU运行并可通过浏览器直接体验。
Llama-3.1-8b-ITA - 意大利语优化版Llama-3.1语言模型实现79.17%测试精确度
Llama-3.1-8b-ITA自然语言处理Huggingface模型评估模型意大利语语言模型Github开源项目
Llama-3.1-8b-ITA是一个专注意大利语优化的大型语言模型,采用Meta-Llama-3.1-8B-Instruct架构。模型在IFEval零样本测试达到79.17%准确率,支持Python环境部署,可用于文本生成。在Open LLM排行榜中,BBH测试达30.93%,MMLU-PRO达31.96%,整体表现稳定。
Minerva-3B-base-v1.0 - 意大利语和英语文本生成的开源模型
开源项目模型意大利语MinervaGithubHuggingface大型语言模型预训练偏见
Minerva-3B-base-v1.0是由Sapienza NLP与FAIR及CINECA合作开发的开源大型语言模型,专门在意大利语和英语文本上进行预训练。其采用3亿参数和6600亿标记数设计,基于Mistral架构,可有效进行文本生成。同时指出,这一模型在推理速度和词汇处理方面表现优良,但也可能会生成偏见或不当内容,因此在使用时需注意。
LLaMAntino-2-7b-hf-ITA - 意大利语自然语言生成的大型语言模型
意大利语QLoraGithub开源项目自然语言生成Huggingface超级计算机LLaMAntino-2-7b模型
LLaMAntino-2-7b 是一款专门适配意大利语的 LLaMA 2 大型语言模型,旨在支持自然语言生成任务。该模型采用 QLora 方法在 clean_mc4_it 中等数据集上进行训练,为意大利 NLP 研究提供基础。由 Pierpaolo Basile 等人开发,并获得 PNRR 项目 FAIR 的支持,在 Leonardo 超级计算机上运行。代码尚未发布,更多信息可通过 GitHub 获取。此模型以 Llama 2 社区许可证开放,适合应用于意大利语的自然语言处理任务。
Qwen2-1.5B-ITA-Instruct - Qwen2-1.5B-ITA-Instruct模型通过强化意大利语的加速训练
apache-2.0Unsloth模型Github开源项目意大利语模型微调Huggingface
Qwen2-1.5B-ITA-Instruct 通过 Unsloth 连续预训练模式提升意大利语表现,初步微调使用 gsarti/clean_mc4_it 数据集,随后借助 FreedomIntelligence/alpaca-gpt4-italian 数据集进行指示性微调,实现训练效率翻倍,综合性能在意大利语模型排行榜上有出色表现。
multi-sentence-BERTino - 意大利语句子嵌入模型的功能与应用
意大利语句子嵌入multi-sentence-BERTino句子相似性Github开源项目Huggingface语义搜索模型
multi-sentence-BERTino是专为意大利语设计的句子嵌入模型,依托sentence-transformers实现高效的建模。该模型使用mmarco italian和stsb italian数据集进行训练,可用于语义搜索和聚类,支持两种操作方式:使用sentence-transformers库或HuggingFace Transformers。文档包含训练参数和评估结果,详细描述了完整模型架构,适合各种自然语言处理任务。
maestrale-chat-v0.4-beta - 优化意大利语语言处理的SFT与DPO对齐模型
Github微调模型模型描述意大利语语言模型开源项目Maestrale-chatHuggingface
该模型专注于意大利语处理,基于Mistral-7b模型在大规模高质量语料库上的预训练,并结合了occiglot模型。对170万次对话和指令进行微调后,提升了数学、推理能力和拉丁文翻译能力。适用于多种应用场景,如生成Mermaid思维导图和SQL代码,采用ChatML提示格式。此外,作为Beta版设计,模型具有‘安全性’,能够拒绝有害问题的回答。
LLaMAntino-2-chat-13b-hf-UltraChat-ITA - 意大利语对话支持增强的大语言模型
LLaMAntino-2-chat-13b-UltraChat模型Github开源项目大语言模型意大利语自然语言处理AI研究Huggingface
这是一个经过指令微调的意大利语大语言模型。使用QLora技术训练,并基于UltraChat数据集的意大利语版本。项目开发由Leonardo超级计算机支持,并适用于多种意大利语对话场景的云端推理。
LLaMAntino-3-ANITA-8B-Inst-DPO-ITA - LLaMAntino-3意大利语文本生成模型
意大利语Github开源项目LLaMAntino自然语言处理Huggingface模型评估多语言模型模型
基于Meta Llama 3技术的LLaMAntino-3模型特别为意大利NLP研究开发,通过AI2推理挑战、HellaSwag和TruthfulQA等任务的微调与评估,实现卓越的文本生成和准确性表现。支持多语言输入,尤其是在意大利语环境中高效处理文本生成任务。