#多语言

bark-small - 高性能多语言文本转语音模型
模型Github音频生成Bark开源项目Huggingface文本转语音多语言人工智能
bark-small是Suno开发的基于transformer的文本转音频模型。它可生成高度逼真的多语言语音、音乐、背景噪音和简单音效,还能产生笑声、叹息等非语言交流。该模型支持多种语言,主要用于研究目的。用户可通过Hugging Face Transformers库或原始Bark库运行推理,生成24kHz的语音波形。bark-small提供了便捷的使用方法,适合进行文本转语音相关研究和实验。
Llama-3.1-405B-Instruct-FP8 - Meta开发的多语言大规模语言模型,支持对话和文本生成
模型Llama 3.1开源项目Huggingface元模型Github大语言模型人工智能多语言
Llama-3.1-405B-Instruct-FP8是Meta公司开发的多语言大规模语言模型。该模型支持8种语言的文本输入输出,具有128K的上下文长度,采用优化的Transformer架构。模型在多语言对话和文本生成任务中表现优异,适用于助手式聊天和自然语言处理等领域。Meta为该模型提供了商业许可证,允许在遵守使用政策的前提下应用于商业和研究用途。
Phi-3.5-MoE-instruct - 轻量级高性能多语言开源模型
模型开源项目语言模型Phi-3.5-MoEHuggingface长文本处理推理能力Github多语言
Phi-3.5-MoE-instruct是一款高性能开源多语言模型。采用混合专家架构,仅用6.6B活跃参数即可实现优异性能。支持128K上下文长度,在推理、数学和代码生成等方面表现出色。模型专注高质量推理数据,经过严格微调和安全增强,适用于商业和研究领域。
paligemma-3b-mix-448 - 基于SigLIP和Gemma的多语言视觉语言模型
视觉语言模型图像处理Huggingface模型PaliGemmaGithub多语言开源项目微调
PaliGemma是一款基于SigLIP视觉模型和Gemma语言模型的视觉语言模型,采用3B参数的Transformer架构。该模型支持多语言输入输出,可用于图像描述、视觉问答和文本识别等任务。PaliGemma在多个大规模数据集上经过预训练,并通过严格的数据过滤确保了训练数据质量。模型适用于各类视觉语言任务的微调,在多项基准测试中展现了优异性能。
Mistral-Nemo-Instruct-2407-GGUF - 多语言指令微调大规模语言模型
Mistral-Nemo-InstructHuggingface模型指令微调大语言模型Github多语言开源项目自然语言处理
Mistral-Nemo-Instruct-2407是一款基于Mistral-Nemo-Base-2407指令微调的大规模语言模型,支持128k上下文窗口。该模型在多语言和代码任务方面表现优异,可替代Mistral 7B使用。模型在主流基准测试中表现出色,并在多语言任务中展现强大能力。开发者可通过mistral_inference、transformers或NeMo框架使用该模型进行聊天、指令遵循和函数调用等多样化任务。Mistral-Nemo-Instruct-2407采用Apache 2许可证开源发布。
bloom-560m-intermediate - BLOOM大型多语言模型的训练过程中间检查点
Huggingface模型大语言模型开源人工智能Github多语言开源项目BLOOM
bloom-560m-intermediate项目提供BLOOM大型多语言模型在训练过程中的中间检查点,涵盖1000至600000全局步骤的多个阶段。BLOOM支持45种自然语言和12种编程语言,使用1.5TB预处理文本训练。这些检查点为研究人员提供了分析大型语言模型训练过程的重要资源。
Llama-3.1-405B-FP8 - Meta推出的405B参数多语言AI模型支持128K上下文
Huggingface模型大语言模型人工智能Github多语言元宇宙开源项目Llama 3.1
Llama-3.1-405B-FP8是Meta发布的多语言大语言模型,支持8种语言文本生成,参数规模405B,上下文窗口128K。该模型在多项基准测试中表现优异,适用于对话等自然语言任务。它允许商业使用,可用于数据生成和模型蒸馏等场景。该模型采用优化的Transformer架构,具备强大的多语言处理能力。
bloom-1b7 - 开源多语言自然语言处理模型
Huggingface模型开源人工智能大型语言模型多语言Github开源项目BLOOM
BLOOM-1B7是BigScience项目开发的开源多语言预训练语言模型,支持45种自然语言和12种编程语言。该模型采用改进的Transformer架构,包含17亿参数,在1.5TB多语言语料上训练而成。BLOOM-1B7可用于文本生成、信息提取、问答等多种自然语言处理任务,为研究人员和开发者提供了探索大型语言模型特性的平台。模型遵循RAIL许可证,限制了在高风险场景中的使用,旨在推动语言模型的公共研究。
sat-3l - 高效的多语言句子分割模型
句子分割HuggingfaceTransformer模型wtpsplitGithub开源项目sat-3l多语言
sat-3l模型利用三层Transformer实现了先进的多语言句子分割,提升了文本处理的效率与精准度。详细信息请参阅Segment any Text相关论文。
Phi-3.5-mini-instruct - Unsloth加速技术让开源语言模型训练更高效
微调长上下文开源项目模型GithubHuggingfacePhi-3.5多语言Unsloth
Phi-3.5-mini-instruct是微软AI团队开发的开源语言模型,具备多语言理解、长文本处理和代码生成能力,支持128K上下文长度。结合Unsloth优化技术,模型训练速度提升2倍,内存占用降低50%。适合在资源受限环境下部署的AI应用开发,并提供Google Colab环境供快速测试验证。
lang-id-commonlanguage_ecapa - 基于ECAPA-TDNN的多语言语音识别模型
ECAPA-TDNN模型语言识别开源项目Huggingface语音处理SpeechBrainGithub多语言
该项目开发了一个基于ECAPA-TDNN架构和SpeechBrain框架的语言识别模型,能够从语音输入中识别45种不同语言。模型在CommonLanguage数据集上预训练,达到85%的识别准确率。系统采用ECAPA模型结合统计池化技术,并在其上应用分类器。模型支持处理16kHz采样率的音频,并能自动进行音频标准化。项目提供了简洁的Python接口,方便研究者和开发者进行语言识别实验和应用开发。
Meta-Llama-3.1-8B-Instruct-quantized.w8a8 - 量化优化的多语言文本生成模型
多语言Github量化模型开源项目Meta-Llama-3vLLMHuggingface文本生成
该模型通过INT8量化优化,实现了GPU内存效率和计算吞吐量的提升,支持多语言文本生成,适用于商业和研究中的辅助聊天任务。在多个基准测试中,该模型实现了超越未量化模型的恢复率,尤其在OpenLLM和HumanEval测试中表现突出。使用GPTQ算法进行量化,有效降低了内存和磁盘的占用。可通过vLLM后端快速部署,并支持OpenAI兼容服务。
mms-tts-cat - Facebook MMS项目推出加泰罗尼亚语文本转语音模型
模型语音合成加泰罗尼亚语多语言GithubVITSMMS开源项目Huggingface
该模型是Facebook Massively Multilingual Speech项目的加泰罗尼亚语文本转语音(TTS)模型。基于VITS架构,通过端到端训练实现高质量语音合成。模型结构包括后验编码器、解码器和条件先验,采用变分推理和对抗训练方法。研究人员可通过Transformers库便捷使用此模型生成加泰罗尼亚语语音。
Qwen2-7B-Instruct-GGUF - 广泛基准测试中表现突出的大型语言模型
推理能力GithubQwen2-7B-Instruct开源项目多语言模型优化Huggingface预训练模型
Qwen2-7B-Instruct-GGUF是一款经过指导优化的开源大规模语言模型,在语言理解、生成和多语言支持等基准测试中表现优异,提供fp16及多种量化格式,兼容OpenAI API,并增强代码和数学推理功能。
TowerBase-7B-v0.1 - 增强翻译及多语种任务的多语言模型性能
GithubUnbabel文本生成开源项目翻译模型TowerBase-7B多语言Huggingface模型
TowerBase-7B-v0.1是一个多语言模型,通过继续在Llama 2的基础上对20亿条多语种数据进行预训练,在10种主要语言中表现出色。非常适合用于翻译和相关应用任务,在AI2 Reasoning Challenge和HellaSwag等测试中展现出优异的归一化准确率。该模型支持快速无监督调优,为相应语言的研究提供支持。技术报告将提供详细信息。
persian_xlm_roberta_large - XLM-RoBERTa模型提升波斯语问答表现
PQuAD性能HuggingfaceXLM-RoBERTA问题回答模型Github开源项目多语言
波斯语问答模型基于XLM-RoBERTa优化,提升了PQuAD数据集上的匹配精度,详细介绍了训练参数和PyTorch使用方法。
bge-m3-korean - 多语言句子相似度与文本分析模型
向量空间Sentence TransformerHuggingface语义相似性特征提取开源项目多语言模型Github
该模型基于BAAI/bge-m3,通过KorSTS和KorNLI进行微调,支持多语言语义相似性分析与文本分类等任务,利用Sentence Transformer将句子和段落映射为1024维稠密向量,适用于多种文本嵌入应用。
jina-reranker-v2-base-multilingual - 高性能多语言文本重排序模型优化信息检索效果
文本重排序搜索相关性Huggingface开源项目jina-reranker-v2-base-multilingual跨编码器Github模型多语言
jina-reranker-v2-base-multilingual是一款优化文本重排序的多语言transformer模型。它支持多语言查询-文档对处理、长文本输入和闪存注意力机制,在文本检索、多语言处理、函数调用和SQL重排序等基准测试中表现卓越。该模型能显著提升信息检索系统的性能和准确度。
mHuBERT-147 - 支持147种语言的紧凑型多语言HuBERT模型
数据集开源项目模型GithubHuggingface声学模型mHuBERT-147多语言训练数据
mHuBERT-147是一个支持147种语言的多语言HuBERT模型,使用95M参数的基础架构,并通过faiss IVF离散语音单元训练。该模型在多项测试中表现优异,特别是在语种识别任务中取得最新的领先成绩,具备良好的应用前景。
mlong-t5-large-sumstew - 多语言长文本抽象概述模型,适用于生成标题和摘要
多语言Github模型transformersmLong-T5-large-sumstew开源项目title生成Huggingface摘要生成
这款多语言抽象概述模型支持处理长达16k输入标记的文档,擅长生成标题和摘要。在sumstew上训练,samsum数据集ROUGE-1得分为29.7108,其文本概述能力优异。可通过transformers库轻松集成,支持基础与高级配置的调用,优化内容生成过程。模型验证完整可靠,适用于多场景下的内容生成和信息提取。
muril-large-cased - 支持17种印度语言的BERT大规模预训练模型
多语言开源项目预训练模型Github模型MuRIL自然语言处理Huggingface印度语言
MuRIL是基于BERT large架构开发的印度语言预训练模型,支持17种印度语言及其音译版本。模型通过整合翻译数据和音译语料进行训练,在PANX和问答等多项XTREME基准测试中超越XLM-R large的性能表现,可广泛应用于印度语言相关的自然语言处理任务。
Llama-3.2-3B-Instruct-GGUF - Llama 3.2多语言模型的高效量化部署方案
Llama 3.2语言模型多语言模型Github量化模型机器学习开源项目Huggingface
Llama 3.2系列多语言模型的GGUF量化版本,针对对话、检索和摘要任务进行优化。通过多种量化方案实现4.66GB至9.38GB的灵活内存占用,适合在资源受限环境部署。该模型在主流行业基准测试中展现了良好性能。
Qwen2-57B-A14B - 高效的多语言自然语言处理模型
Mixture-of-ExpertsGithub开源项目模型性能多语言自然语言理解Qwen2Huggingface模型
Qwen2-57B-A14B是一个采用混合专家技术的模型,专注于自然语言理解和多语言处理能力。它基于Transformer架构,并使用SwiGLU激活和注意力偏置等技术,增强了语言生成和处理的准确度。该模型广泛超越了多数开源模型,在多项基准测试中表现出众,是处理复杂自然语言任务的理想选择,并在推理效率上较前代模型有显著提升。
Phi-3-medium-4k-instruct-abliterated-v3 - 增强文本生成模型性能的正交化方法
正交化特征消融Github开源项目模型改进多语言HuggingfacePhi-3-medium-4k-instruct模型
采用正交化技术的Phi-3模型旨在减少拒绝响应,同时保持知识完整性。该方法通过权重调整消除拒绝特征,比传统微调更为精确高效。新版本Phi-3参考最新研究方法,减少错觉并提高模型稳定性。这一技术改进不仅是重要升级,也是未来深度学习模型优化的方向。
whisper-large-v3-turbo - 精简版Whisper语音识别系统的突破性进展
自动语音识别语音识别Github开源项目模型多语言模型蒸馏HuggingfaceWhisper
Whisper large-v3-turbo通过模型蒸馏技术对原版Whisper进行优化,将解码层从32减少到4层,在仅造成轻微性能损失的情况下显著提升了处理速度。该模型继承了Whisper优秀的多语言处理能力,支持超过100种语言的语音识别和翻译任务,能够适应不同场景的音频输入。基于高效的架构设计,此模型在降低计算资源需求的同时保持了稳定的识别准确率。
mT5_multilingual_XLSum - 基于mT5的多语言自动文本摘要模型支持45种语言
Github开源项目mT5多语言文本摘要自然语言处理Huggingface机器学习模型
mT5-multilingual-XLSum是一个多语言文本摘要开源模型,通过在XL-Sum数据集上对mT5模型进行微调训练而成。该模型支持包括英文、中文、阿拉伯语在内的45种语言文本摘要生成,在ROUGE评分评测中展现出优秀性能。用户可通过Hugging Face Transformers框架实现文章和新闻等长文本的自动摘要功能。
Llama-3.2-3B-GGUF - 高性能多语言型大语言模型支持8种语言
Github机器学习开源项目模型语言模型多语言人工智能HuggingfaceLlama 3.2
Llama-3.2-3B是Meta开发的多语言大型语言模型,支持8种语言,适用于对话和代理任务。本项目使用llama.cpp对原模型进行量化,保留了128k上下文长度和分组查询注意力等特性。该模型在行业基准测试中表现优异,可用于聊天、知识检索、摘要等自然语言生成任务,适合商业和研究使用。
EEVE-Korean-Instruct-10.8B-v1.0 - 韩语大语言模型EEVE-Korean-Instruct-10.8B采用DPO技术优化指令理解
Github开源项目模型语言模型多语言韩语HuggingfaceEEVE机器学习
EEVE-Korean-Instruct-10.8B-v1.0是一个针对韩语优化的大语言模型。该模型基于SOLAR-10.7B扩展韩语词汇表,并使用DPO技术进行指令微调。在多项基准测试中,模型平均得分达66.48分。训练数据包括韩语翻译版的SlimOrca-Dedup和ultrafeedback数据集。项目提供了API使用说明和模型评估结果,适用于需要高性能韩语语言处理的应用场景。
granite-3.0-8b-instruct - 多领域AI助手构建的多语言文本生成模型
AI助手开源项目模型语言模型多语言HuggingfaceGranite-3.0-8B-Instruct文本生成Github
Granite-3.0-8B-Instruct是由Granite团队与IBM开发的8B参数文本生成模型,支持多种语言,适合构建应用于多领域的AI助手。其功能涵盖文本生成、分类、抽取、问答、检索增强生成(RAG)和代码任务。模型基于Decoder-Only Transformer架构,可通过开放源和内部合成数据集进行微调,支持多语言对话场景。
voxcelebs12_rawnet3 - 多语言语者识别解决方案,提升音频处理能力
多语言语音识别Github模型开源项目VoxCelebESPnetHuggingface演讲者识别
RawNet3模型基于ESPnet2框架和VoxCeleb数据集进行训练,专注于提升语者识别和音频处理的精度。该模型结合自监督式前端和现成工具,提供了创新的语者嵌入解决方案。用户可按照ESPnet的安装指南下载并应用此模型,配置选项包括Adam优化器和余弦退火调度器,充分保障模型训练过程的高效性与稳定性。适用于多语言语者识别应用场景,助力开发者增强音频处理的精度与便捷性。
openbuddy-zephyr-7b-v14.1 - 多语言聊天机器人平台支持多种语言的互动
多语言Github模型开源项目OpenBuddy免责声明HuggingfaceChatbot使用条款
OpenBuddy支持多种语言,使用transformers库,具备多语言能力和开源许可。用户可通过GitHub访问使用指南和演示,但在高风险环境中使用需注意其固有局限性。
Llama-3.2-3B-Instruct-GGUF - Meta推出的新一代多语言AI对话模型 支持128K上下文
Github开源项目对话模型Llama-3.2-3B-Instruct模型多语言Huggingface社区模型128K上下文
Llama-3.2-3B-Instruct是Meta发布的新一代多语言AI模型,针对对话、检索和摘要任务进行优化。官方支持8种语言,实际训练语言更多。模型具备128K长上下文能力,可处理复杂任务。社区贡献者bartowski基于llama.cpp提供GGUF量化版本,便于多设备部署。
bloom-1b1 - BigScience开发的开源多语言预训练模型
开源项目模型语言模型多语言BLOOM人工智能Huggingface深度学习Github
BLOOM是BigScience开发的开源多语言预训练模型,支持45种自然语言和12种编程语言。模型基于Transformer架构,拥有1760亿参数,在3500亿词元上训练。主要用于文本生成和自然语言处理研究,具备多语言理解与生成能力。项目提供完整模型卡,详述技术规格、应用场景及使用限制。
wtp-canine-s-12l - 多语言支持增强文本划分精度
wtpsplit开源项目wtp-canine-s-12l技术模型语言模型多语言HuggingfaceGithub
该项目采用一种经过优化的多语言模型,提高了文本划分工具的精度和可用性,支持多达数十种语言,包括英语、法语、德语和中文等,以满足不同语言背景用户的需求。
X-ALMA-13B-Pretrain - 支持50种语言的模块化翻译架构
机器翻译模块化Github开源项目多语言X-ALMAHuggingface模型训练模型
X-ALMA扩展支持50种语言,采用模块化架构进行多语言翻译,并通过合并模型、基础模型与语言特定模块或全语言模块的加载方式,应对不同应用场景。其增强的语言适应性在多语言问答中表现出色。
dehatebert-mono-english - 高效检测英文仇恨言论的英语深度学习模型
开源项目hatespeech模型英文多语言Huggingface单语深度学习Github
该模型专注于检测英文仇恨言论,使用单语言数据训练,并在多语言BERT模型上进行微调。它的最佳验证得分为0.726030,采用了2e-5的学习率。训练代码可在GitHub上查阅。该项目由Aluru、Mathew、Saha和Mukherjee共同开发,相关论文已在ECML-PKDD 2020大会上发表,探讨了跨语言仇恨言论检测的深度学习方法。