#多语言
xlm-roberta-large-xnli - XLM-RoBERTa基于XNLI的多语言零样本文本分类模型
Github开源项目多语言模型Huggingface文本分类零样本分类XLM-RoBERTa自然语言推理
xlm-roberta-large-xnli是一个基于XLM-RoBERTa大型模型微调的多语言自然语言推理模型。该模型支持15种语言的零样本文本分类,包括英语、法语和西班牙语等。经过XNLI数据集训练后,模型可用于跨语言文本分类任务。它提供简单的pipeline接口,便于进行多语言零样本分类。此模型适用于需要在多种语言中进行文本分类的应用场景,尤其适合非英语语言的分类任务。
Meta-Llama-3.1-70B - Meta开发的多语言大型语言模型 支持高级对话和文本生成
人工智能Github开源项目大语言模型多语言模型Llama 3.1HuggingfaceMeta
Meta-Llama-3.1-70B是Meta推出的多语言大型语言模型系列之一。该模型采用优化的Transformer架构,支持128k上下文长度,在8种语言中表现优异。它专为多语言对话场景设计,可用于智能助手、自然语言生成等任务。该模型在多项行业基准测试中表现出色,超越众多开源和闭源聊天模型,为开发者提供了强大的多语言AI处理能力。Meta-Llama-3.1-70B支持商业和研究用途,为各类应用场景提供了先进的语言模型解决方案。
bloom-7b1 - 支持57种语言的开源大型语言模型
人工智能大型语言模型Github开源项目开源多语言模型HuggingfaceBLOOM
BLOOM是BigScience项目开发的开源大型语言模型,支持45种自然语言和12种编程语言,拥有1760亿参数。该模型使用1.5TB预处理文本在法国超级计算机上训练,可用于文本生成、信息提取和问答等任务。BLOOM采用RAIL开放许可证,旨在推动语言模型公共研究,但不适用于高风险场景。
Llama-3.2-1B-Instruct-AWQ - Meta发布的开源多语言大型语言模型
Github开源项目大语言模型多语言模型自然语言生成HuggingfaceMetaLlama 3.2
Llama-3.2-1B-Instruct是Meta开发的多语言大型语言模型,采用改进的transformer架构,支持128k上下文长度。该模型在对话、检索和摘要任务上表现优异,支持8种语言,包括英语、德语和法语等。它提供1B和3B两种参数规模,可通过transformers库或原生llama代码库部署,适用于商业和研究用途。
Llama-3.2-3B-bnb-4bit - Unsloth技术优化Llama-3.2模型微调 加速训练节省内存
Github开源项目大语言模型多语言微调模型HuggingfaceLlama 3.2Unsloth
Llama-3.2-3B-bnb-4bit项目应用Unsloth技术优化模型微调,将训练速度提高2.4倍,同时减少58%内存使用。项目为Llama-3系列、Gemma 2和Mistral等多个模型提供免费Colab笔记本,便于初学者进行高效模型微调。此外,还包括对话型、文本补全型专用笔记本和DPO技术应用示例,全面支持各类模型优化需求。
twitter-xlm-roberta-base - XLM-T 基于推特的多语言模型用于情感分析和跨语言任务
Github开源项目自然语言处理多语言模型情感分析Huggingface推特XLM-Roberta-base
XLM-T是一个基于XLM-RoBERTa架构的多语言模型,通过1.98亿条多语言推文训练而成。该模型专门用于Twitter数据分析,支持30多种语言的情感分析和跨语言相似度计算。XLM-T还提供了一个覆盖8种语言的统一Twitter情感分析数据集,可作为多语言自然语言处理任务的基准模型,并支持针对特定应用场景的进一步微调。
Phi-3.5-mini-instruct-bnb-4bit - 轻量级多语言模型支持高效微调和长文本理解
Github开源项目多语言微调模型transformersHuggingface长上下文Phi-3.5
Phi-3.5-mini-instruct是一款轻量级开源语言模型,支持128K上下文长度。经过监督微调和优化,该模型在多语言能力和长文本理解方面表现出色。适用于内存受限环境、低延迟场景和推理任务,可作为AI系统的基础组件。在商业和研究领域都有广泛应用前景。
sat-3l-sm - 基于Transformer的多语言句子分割模型
Github开源项目自然语言处理多语言Transformer模型Huggingface分词wtpsplit
sat-3l-sm是一个基于3层Transformer架构的句子分割模型,支持80种语言的文本分段。作为wtpsplit库的核心组件,该模型采用MIT许可证开源。sat-3l-sm源于'Segment any Text'研究,为自然语言处理提供准确的句子边界检测功能。
SauerkrautLM-Mixtral-8x7B-Instruct - Mixtral-8x7B基础上的多语言指令微调大模型
Github开源项目自然语言处理多语言模型Huggingface混合专家模型DPO对齐SauerkrautLM-Mixtral-8x7B-Instruct
SauerkrautLM-Mixtral-8x7B-Instruct是基于Mixtral-8x7B-Instruct的多语言指令微调模型,支持英、德、法、意、西五种语言。模型通过DPO对齐和数据增强技术训练,改善了德语等语言的自然表达。在多项基准测试中表现优异,德语RAG评估准确率达97.5%。该模型采用Apache 2.0许可,允许商业应用。
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7 - mDeBERTa-v3模型实现多语言自然语言推理和零样本分类
Github开源项目多语言机器学习模型Huggingface零样本分类自然语言推理mDeBERTa-v3
mDeBERTa-v3-base-xnli-multilingual-nli-2mil7是一个支持100种语言的自然语言推理和零样本分类模型。它基于mDeBERTa-v3-base架构,通过XNLI和multilingual-NLI-26lang-2mil7数据集微调,包含27种语言的270多万个文本对。该模型在XNLI和英语NLI测试中表现优异,展现出卓越的跨语言迁移能力,为多语言NLP任务提供了强大解决方案。
paligemma-3b-pt-224 - 基于SigLIP和Gemma的多功能视觉语言模型
Github开源项目自然语言处理多语言图像处理模型Huggingface视觉语言模型PaliGemma
PaliGemma是一款结合SigLIP视觉模型和Gemma语言模型的视觉语言模型。该模型可处理图像和文本输入并生成文本输出,支持多语言。PaliGemma在图像字幕、视觉问答、文本阅读、物体检测等多种视觉语言任务中表现优异。模型采用Transformer架构,拥有30亿参数,经过大规模多语言数据预训练,可通过微调应用于特定任务。
bark-small - 高性能多语言文本转语音模型
人工智能Github开源项目文本转语音多语言音频生成模型HuggingfaceBark
bark-small是Suno开发的基于transformer的文本转音频模型。它可生成高度逼真的多语言语音、音乐、背景噪音和简单音效,还能产生笑声、叹息等非语言交流。该模型支持多种语言,主要用于研究目的。用户可通过Hugging Face Transformers库或原始Bark库运行推理,生成24kHz的语音波形。bark-small提供了便捷的使用方法,适合进行文本转语音相关研究和实验。
Llama-3.1-405B-Instruct-FP8 - Meta开发的多语言大规模语言模型,支持对话和文本生成
人工智能Github开源项目大语言模型多语言模型Llama 3.1Huggingface元模型
Llama-3.1-405B-Instruct-FP8是Meta公司开发的多语言大规模语言模型。该模型支持8种语言的文本输入输出,具有128K的上下文长度,采用优化的Transformer架构。模型在多语言对话和文本生成任务中表现优异,适用于助手式聊天和自然语言处理等领域。Meta为该模型提供了商业许可证,允许在遵守使用政策的前提下应用于商业和研究用途。
Phi-3.5-MoE-instruct - 轻量级高性能多语言开源模型
Github开源项目多语言语言模型模型Huggingface长文本处理推理能力Phi-3.5-MoE
Phi-3.5-MoE-instruct是一款高性能开源多语言模型。采用混合专家架构,仅用6.6B活跃参数即可实现优异性能。支持128K上下文长度,在推理、数学和代码生成等方面表现出色。模型专注高质量推理数据,经过严格微调和安全增强,适用于商业和研究领域。
paligemma-3b-mix-448 - 基于SigLIP和Gemma的多语言视觉语言模型
Github开源项目多语言图像处理微调模型Huggingface视觉语言模型PaliGemma
PaliGemma是一款基于SigLIP视觉模型和Gemma语言模型的视觉语言模型,采用3B参数的Transformer架构。该模型支持多语言输入输出,可用于图像描述、视觉问答和文本识别等任务。PaliGemma在多个大规模数据集上经过预训练,并通过严格的数据过滤确保了训练数据质量。模型适用于各类视觉语言任务的微调,在多项基准测试中展现了优异性能。
Mistral-Nemo-Instruct-2407-GGUF - 多语言指令微调大规模语言模型
Github开源项目大语言模型自然语言处理多语言模型Huggingface指令微调Mistral-Nemo-Instruct
Mistral-Nemo-Instruct-2407是一款基于Mistral-Nemo-Base-2407指令微调的大规模语言模型,支持128k上下文窗口。该模型在多语言和代码任务方面表现优异,可替代Mistral 7B使用。模型在主流基准测试中表现出色,并在多语言任务中展现强大能力。开发者可通过mistral_inference、transformers或NeMo框架使用该模型进行聊天、指令遵循和函数调用等多样化任务。Mistral-Nemo-Instruct-2407采用Apache 2许可证开源发布。
bloom-560m-intermediate - BLOOM大型多语言模型的训练过程中间检查点
人工智能Github开源项目开源大语言模型多语言模型HuggingfaceBLOOM
bloom-560m-intermediate项目提供BLOOM大型多语言模型在训练过程中的中间检查点,涵盖1000至600000全局步骤的多个阶段。BLOOM支持45种自然语言和12种编程语言,使用1.5TB预处理文本训练。这些检查点为研究人员提供了分析大型语言模型训练过程的重要资源。
Llama-3.1-405B-FP8 - Meta推出的405B参数多语言AI模型支持128K上下文
人工智能Github开源项目大语言模型多语言模型Llama 3.1Huggingface元宇宙
Llama-3.1-405B-FP8是Meta发布的多语言大语言模型,支持8种语言文本生成,参数规模405B,上下文窗口128K。该模型在多项基准测试中表现优异,适用于对话等自然语言任务。它允许商业使用,可用于数据生成和模型蒸馏等场景。该模型采用优化的Transformer架构,具备强大的多语言处理能力。
bloom-1b7 - 开源多语言自然语言处理模型
人工智能大型语言模型Github开源项目开源多语言模型HuggingfaceBLOOM
BLOOM-1B7是BigScience项目开发的开源多语言预训练语言模型,支持45种自然语言和12种编程语言。该模型采用改进的Transformer架构,包含17亿参数,在1.5TB多语言语料上训练而成。BLOOM-1B7可用于文本生成、信息提取、问答等多种自然语言处理任务,为研究人员和开发者提供了探索大型语言模型特性的平台。模型遵循RAIL许可证,限制了在高风险场景中的使用,旨在推动语言模型的公共研究。
sat-3l - 高效的多语言句子分割模型
Github开源项目多语言Transformer模型Huggingfacewtpsplit句子分割sat-3l
sat-3l模型利用三层Transformer实现了先进的多语言句子分割,提升了文本处理的效率与精准度。详细信息请参阅Segment any Text相关论文。
Phi-3.5-mini-instruct - Unsloth加速技术让开源语言模型训练更高效
Github开源项目多语言微调模型Huggingface长上下文Phi-3.5Unsloth
Phi-3.5-mini-instruct是微软AI团队开发的开源语言模型,具备多语言理解、长文本处理和代码生成能力,支持128K上下文长度。结合Unsloth优化技术,模型训练速度提升2倍,内存占用降低50%。适合在资源受限环境下部署的AI应用开发,并提供Google Colab环境供快速测试验证。
lang-id-commonlanguage_ecapa - 基于ECAPA-TDNN的多语言语音识别模型
Github开源项目多语言模型HuggingfaceSpeechBrain语音处理语言识别ECAPA-TDNN
该项目开发了一个基于ECAPA-TDNN架构和SpeechBrain框架的语言识别模型,能够从语音输入中识别45种不同语言。模型在CommonLanguage数据集上预训练,达到85%的识别准确率。系统采用ECAPA模型结合统计池化技术,并在其上应用分类器。模型支持处理16kHz采样率的音频,并能自动进行音频标准化。项目提供了简洁的Python接口,方便研究者和开发者进行语言识别实验和应用开发。
Meta-Llama-3.1-8B-Instruct-quantized.w8a8 - 量化优化的多语言文本生成模型
Github开源项目文本生成多语言模型量化vLLMHuggingfaceMeta-Llama-3
该模型通过INT8量化优化,实现了GPU内存效率和计算吞吐量的提升,支持多语言文本生成,适用于商业和研究中的辅助聊天任务。在多个基准测试中,该模型实现了超越未量化模型的恢复率,尤其在OpenLLM和HumanEval测试中表现突出。使用GPTQ算法进行量化,有效降低了内存和磁盘的占用。可通过vLLM后端快速部署,并支持OpenAI兼容服务。
mms-tts-cat - Facebook MMS项目推出加泰罗尼亚语文本转语音模型
Github开源项目语音合成多语言模型VITSHuggingfaceMMS加泰罗尼亚语
该模型是Facebook Massively Multilingual Speech项目的加泰罗尼亚语文本转语音(TTS)模型。基于VITS架构,通过端到端训练实现高质量语音合成。模型结构包括后验编码器、解码器和条件先验,采用变分推理和对抗训练方法。研究人员可通过Transformers库便捷使用此模型生成加泰罗尼亚语语音。
Qwen2-7B-Instruct-GGUF - 广泛基准测试中表现突出的大型语言模型
Github开源项目多语言预训练模型模型优化Huggingface推理能力Qwen2-7B-Instruct
Qwen2-7B-Instruct-GGUF是一款经过指导优化的开源大规模语言模型,在语言理解、生成和多语言支持等基准测试中表现优异,提供fp16及多种量化格式,兼容OpenAI API,并增强代码和数学推理功能。
TowerBase-7B-v0.1 - 增强翻译及多语种任务的多语言模型性能
Github开源项目文本生成多语言模型翻译模型HuggingfaceUnbabelTowerBase-7B
TowerBase-7B-v0.1是一个多语言模型,通过继续在Llama 2的基础上对20亿条多语种数据进行预训练,在10种主要语言中表现出色。非常适合用于翻译和相关应用任务,在AI2 Reasoning Challenge和HellaSwag等测试中展现出优异的归一化准确率。该模型支持快速无监督调优,为相应语言的研究提供支持。技术报告将提供详细信息。
persian_xlm_roberta_large - XLM-RoBERTa模型提升波斯语问答表现
Github开源项目多语言模型性能Huggingface问题回答PQuADXLM-RoBERTA
波斯语问答模型基于XLM-RoBERTa优化,提升了PQuAD数据集上的匹配精度,详细介绍了训练参数和PyTorch使用方法。
bge-m3-korean - 多语言句子相似度与文本分析模型
Github开源项目多语言模型Huggingface特征提取向量空间语义相似性Sentence Transformer
该模型基于BAAI/bge-m3,通过KorSTS和KorNLI进行微调,支持多语言语义相似性分析与文本分类等任务,利用Sentence Transformer将句子和段落映射为1024维稠密向量,适用于多种文本嵌入应用。
jina-reranker-v2-base-multilingual - 高性能多语言文本重排序模型优化信息检索效果
Github开源项目多语言模型Huggingface跨编码器搜索相关性jina-reranker-v2-base-multilingual文本重排序
jina-reranker-v2-base-multilingual是一款优化文本重排序的多语言transformer模型。它支持多语言查询-文档对处理、长文本输入和闪存注意力机制,在文本检索、多语言处理、函数调用和SQL重排序等基准测试中表现卓越。该模型能显著提升信息检索系统的性能和准确度。
mHuBERT-147 - 支持147种语言的紧凑型多语言HuBERT模型
Github开源项目多语言模型数据集Huggingface训练数据声学模型mHuBERT-147
mHuBERT-147是一个支持147种语言的多语言HuBERT模型,使用95M参数的基础架构,并通过faiss IVF离散语音单元训练。该模型在多项测试中表现优异,特别是在语种识别任务中取得最新的领先成绩,具备良好的应用前景。
mlong-t5-large-sumstew - 多语言长文本抽象概述模型,适用于生成标题和摘要
Github开源项目多语言模型transformersHuggingface摘要生成mLong-T5-large-sumstewtitle生成
这款多语言抽象概述模型支持处理长达16k输入标记的文档,擅长生成标题和摘要。在sumstew上训练,samsum数据集ROUGE-1得分为29.7108,其文本概述能力优异。可通过transformers库轻松集成,支持基础与高级配置的调用,优化内容生成过程。模型验证完整可靠,适用于多场景下的内容生成和信息提取。
muril-large-cased - 支持17种印度语言的BERT大规模预训练模型
Github开源项目预训练模型自然语言处理多语言模型Huggingface印度语言MuRIL
MuRIL是基于BERT large架构开发的印度语言预训练模型,支持17种印度语言及其音译版本。模型通过整合翻译数据和音译语料进行训练,在PANX和问答等多项XTREME基准测试中超越XLM-R large的性能表现,可广泛应用于印度语言相关的自然语言处理任务。
Llama-3.2-3B-Instruct-GGUF - Llama 3.2多语言模型的高效量化部署方案
Github开源项目多语言机器学习语言模型量化模型模型HuggingfaceLlama 3.2
Llama 3.2系列多语言模型的GGUF量化版本,针对对话、检索和摘要任务进行优化。通过多种量化方案实现4.66GB至9.38GB的灵活内存占用,适合在资源受限环境部署。该模型在主流行业基准测试中展现了良好性能。
Qwen2-57B-A14B - 高效的多语言自然语言处理模型
Github开源项目多语言模型Qwen2HuggingfaceMixture-of-Experts模型性能自然语言理解
Qwen2-57B-A14B是一个采用混合专家技术的模型,专注于自然语言理解和多语言处理能力。它基于Transformer架构,并使用SwiGLU激活和注意力偏置等技术,增强了语言生成和处理的准确度。该模型广泛超越了多数开源模型,在多项基准测试中表现出众,是处理复杂自然语言任务的理想选择,并在推理效率上较前代模型有显著提升。
Phi-3-medium-4k-instruct-abliterated-v3 - 增强文本生成模型性能的正交化方法
Github开源项目多语言模型Huggingface模型改进正交化特征消融Phi-3-medium-4k-instruct
采用正交化技术的Phi-3模型旨在减少拒绝响应,同时保持知识完整性。该方法通过权重调整消除拒绝特征,比传统微调更为精确高效。新版本Phi-3参考最新研究方法,减少错觉并提高模型稳定性。这一技术改进不仅是重要升级,也是未来深度学习模型优化的方向。
whisper-large-v3-turbo - 精简版Whisper语音识别系统的突破性进展
Github开源项目多语言Whisper语音识别模型Huggingface自动语音识别模型蒸馏
Whisper large-v3-turbo通过模型蒸馏技术对原版Whisper进行优化,将解码层从32减少到4层,在仅造成轻微性能损失的情况下显著提升了处理速度。该模型继承了Whisper优秀的多语言处理能力,支持超过100种语言的语音识别和翻译任务,能够适应不同场景的音频输入。基于高效的架构设计,此模型在降低计算资源需求的同时保持了稳定的识别准确率。
相关文章
深入探索TTS:一个强大的深度学习文本转语音工具包
3 个月前
FlagEmbedding: 先进的文本嵌入和检索增强大语言模型框架
3 个月前
ChatGPT UI: 一个功能强大的多用户多语言ChatGPT网页客户端
3 个月前
YourTTS: 零样本多说话人文本转语音与语音转换技术的突破
3 个月前
开放语音语料库 - 语音技术的宝库
3 个月前
Crystal: 多语言TTS合成引擎的统一框架
3 个月前
LongBench: 一个双语多任务的长文本理解基准测试
3 个月前
SkyCode-AI-CodeX-GPT3: 奇点智源推出的多语言开源编程大模型
3 个月前
MeloTTS: 高质量多语言文本转语音技术的新突破
3 个月前