#多语言支持

Qwen2.5-7B-Instruct - 强大的多语言大模型支持128K上下文和8K生成
Huggingface模型指令微调大语言模型长文本处理GithubQwen2.5开源项目多语言支持
Qwen2.5-7B-Instruct是一个指令微调的大语言模型,拥有76亿参数。该模型支持29种以上语言,能处理128K tokens的上下文并生成8K tokens的文本。它在代码、数学、指令遵循和长文本生成等方面表现出色,同时提升了结构化数据的理解和输出能力。模型采用transformers架构,整合了RoPE、SwiGLU等技术,提供了强大的自然语言处理功能。
Qwen1.5-1.8B - 多语言大规模语言模型支持32K上下文长度
Huggingface模型大语言模型Qwen1.5人工智能Github开源项目自然语言处理多语言支持
Qwen1.5是Qwen2的预览版,基于Transformer架构开发的解码器语言模型。它推出了8种不同规模的模型版本,涵盖0.5B至72B的常规模型和一个14B的MoE模型。相较于前代产品,Qwen1.5在对话系统性能、多语言处理能力和32K长文本理解等方面均有显著改进。技术上,该模型采用了SwiGLU激活函数、注意力机制的QKV偏置和分组查询等创新方法,同时优化了针对多语言和编程代码的分词器。
Qwen2.5-0.5B-Instruct - 轻量级多语言指令模型Qwen2.5-0.5B
模型Qwen2.5长文本生成多语言支持Github大语言模型指令微调Huggingface开源项目
Qwen2.5-0.5B-Instruct作为Qwen2.5系列的轻量级成员,集成了4.9亿参数。这个模型支持32,768个上下文token和8,192个生成token,在知识储备、代码编写和数学运算等方面表现优异。它不仅提升了指令遵循、长文本生成和结构化数据理解能力,还能支持29种以上的语言。基于因果语言模型架构,结合RoPE和SwiGLU等创新技术,该模型经过精心的预训练和后训练,为多语言聊天机器人等应用提供了强大支持。
Qwen2.5-0.5B-Instruct-bnb-4bit - 提升多语言长文本生成与指令跟随能力,改善结构化数据处理
优化训练Github模型开源项目多语言支持Huggingface大语言模型Qwen2.5Unsloth
Qwen2.5语言模型系列在知识、编码和数学上取得进步,支持29种语言和128K词的长文本生成。其指令跟随和结构化数据处理经过优化,提升生成JSON等输出的效率。适用于多语言和复杂任务的场景,如代码生成和数据管理,通过改进训练架构提升性能和内存效率。
Mistral-Nemo-Instruct-2407 - 多语言指令微调开源大语言模型
Mistral-Nemo-Instruct-2407Huggingface模型大语言模型代码生成Github开源项目多语言支持函数调用
Mistral-Nemo-Instruct-2407是Mistral AI与NVIDIA联合开发的指令微调大语言模型,基于Mistral-Nemo-Base-2407。该模型性能优异,支持128k上下文窗口,涵盖多语言和代码能力。它采用Apache 2许可证开源,可直接替代Mistral 7B,并在多项基准测试中展现卓越表现。
Llama-3.1-8B-EZO-1.1-it - 优化日本语AI模型性能,实现多语言任务支持
社区许可协议Llama 3.1日本语任务多语言支持模型Github开源项目模型微调Huggingface
基于Meta AI的Llama 3.1,有效提升日本语任务性能,适用于多样化语言应用。依托高质量数据集及创新训练策略,模型虽聚焦日本语,亦在其他领域具备卓越表现。用户应警觉其输出中的潜在偏差,并在应用场景中引入安全测试及调适。
Qwen2.5-1.5B-Instruct-GGUF - 多语言文本生成与指令理解能力的优化与突破
Qwen2.5长上下文支持多语言支持模型Github开源项目大语言模型指令调整Huggingface
Qwen2.5系列的1.5B模型在多语言支持和长文本生成上取得进展,尤其在编码、数学和指令跟随方面。该模型支持29种语言和128K长上下文,同时更能适应多样化的系统提示,为实现角色扮演和条件设置的聊天机器人提供帮助。仓库中提供GGUF格式的调优模型,旨在提供接近真实对话的交互体验。
Qwen1.5-14B-Chat - Qwen1.5系列多语言大规模语言模型支持32K上下文
模型聊天模型多语言支持GithubQwen1.5大语言模型TransformerHuggingface开源项目
Qwen1.5是Qwen2的测试版,包含多种规格的大规模语言模型。该系列支持多语言处理,所有规格均可稳定支持32K上下文长度。相比前代模型,Qwen1.5在聊天模型的人类偏好评估中表现显著提升。该模型采用Transformer架构,集成了SwiGLU激活、注意力QKV偏置等技术。模型经过大规模数据预训练和偏好优化,可通过transformers库轻松加载使用。
Qwen2-VL-2B-Instruct-GPTQ-Int4 - Qwen2-VL推动多模态与自动化的跨语言视觉处理进步
机器人人工智能视频理解Qwen2-VL开源项目模型多模态Huggingface多语言支持Github
Qwen2-VL具备先进的多模态处理能力,支持高分辨率图像和长时视频理解,适用于视频问答及自动化设备控制。支持包括欧洲语言、日语、韩语、阿拉伯语等多语言文本理解。更新的分辨率处理和位置嵌入技术提升了视觉感知性能。
Qwen1.5-7B - 多语言大规模预训练模型支持32K上下文
语言模型模型多语言支持人工智能Github文本生成Qwen1.5Huggingface开源项目
Qwen1.5-7B是基于Transformer架构的大规模预训练语言模型,作为Qwen2的beta版本,在多个方面实现了显著改进。该模型提供多种规模选择,支持多语言处理,并稳定支持32K上下文长度。相比前代产品,Qwen1.5-7B在Chat模型性能、技术创新和分词器优化等方面都有提升,为自然语言处理和代码生成任务提供了更强大的基础模型。
granite-3.0-2b-instruct - 提供多语言支持的文本生成模型,适用于构建智能助手
Huggingface文本生成模型架构Granite-3.0-2B-Instruct开源项目模型多语言支持Github训练数据
Granite-3.0-2B-Instruct是由IBM开发的文本生成模型,支持十二种语言,包括中文。模型在基础模型Granite-3.0-2B-Base的基础上经过细调优化,结合开放源码和内部合成数据集。它能够执行文本分类、提取、问答及代码相关任务,采用decoder-only架构。适用于多领域的人工智能助手构建,但在非英语任务的性能可能不如英语任务。
Qwen2.5-3B-Instruct - 高性能多语言AI模型支持长文本处理
模型Qwen2.5多语言支持人工智能Github大语言模型Huggingface开源项目自然语言处理
Qwen2.5-3B-Instruct是Qwen2.5系列中的指令微调模型,拥有30亿参数。该模型在知识储备、编程和数学能力方面有显著提升,支持29种以上语言,能处理128K tokens的输入并生成8K tokens的输出。模型在指令遵循、长文本生成、结构化数据理解和JSON生成等方面表现优异,并能适应多样化的系统提示。采用因果语言模型架构,结合RoPE、SwiGLU等技术,提供高效的自然语言处理能力。
Qwen2.5-0.5B - 轻量级多语言预训练模型 支持长上下文和结构化输出
模型Qwen2.5多语言支持Github大语言模型变形器架构Huggingface开源项目自然语言处理
Qwen2.5-0.5B是一个轻量级预训练语言模型,参数量为0.49B。它支持32,768个token的上下文长度,在代码和数学任务上表现出色,并可处理结构化数据。该模型涵盖29种以上语言,适合指令跟随和长文本生成等应用。作为基础模型,Qwen2.5-0.5B为后续微调和应用开发奠定了基础,展示了其在自然语言处理领域的应用潜力。
MeloTTS-Chinese - 开源多语言文本转语音系统,支持CPU实时推理
模型多语言支持Github开源项目Huggingface语音合成MyShell.aiMeloTTS文本转语音
MeloTTS是一个开源的多语言文本转语音系统,支持英语(含美式、英式等多种口音)、西班牙语、法语、中文、日语和韩语。其特色功能包括混合中英文处理和CPU实时推理。项目提供Python接口,便于开发者集成。MeloTTS采用MIT许可证,允许商业和非商业使用。
Qwen2.5-32B-Instruct - 多语言大规模语言模型支持长文本处理和结构化输出
模型多语言支持开源项目Huggingface长文本处理指令微调Github大语言模型Qwen2.5
Qwen2.5-32B-Instruct是一款指令微调大语言模型,参数量为325亿。该模型支持29种以上语言,擅长指令跟随、长文本生成和结构化输出。它采用因果语言模型架构,支持131,072个token的上下文长度,可生成8192个token。模型在编码、数学等领域表现出色,并能处理表格等结构化数据。
faster-whisper-large-v3-turbo-ct2 - 基于Whisper large-v3的多语言语音识别模型
模型多语言支持faster-whisperWhisper开源项目Huggingface语音识别CTranslate2Github
这是一个基于OpenAI Whisper large-v3模型优化的CTranslate2版本,专注于高效的语音识别。该模型支持100多种语言的转录,兼具准确性和速度。通过faster-whisper库,可以便捷地进行音频转录。模型采用FP16格式存储,计算类型可灵活调整。这为语音识别应用的开发提供了一个强大的工具。
Llama-Guard-3-8B - 多语言内容安全分类器助力AI对话保护
transformersHuggingface内容安全分类模型Llama Guard 3Github开源项目多语言支持MLCommons
Llama Guard 3是基于Llama 3.1-8B模型微调的内容安全分类器,可审核AI系统的输入输出,识别14类有害内容。它支持8种语言,针对搜索和代码解释器等场景优化,提高了大型语言模型的安全性。该模型通过API调用即可进行内容审核,为AI应用提供安全保障。
byt5-base - 直接处理原始字节的多语言自然语言处理模型
模型ByT5多语言支持模型架构Github原始文本处理Huggingface开源项目自然语言处理
ByT5-base是一种新型多语言预训练模型,采用Google T5架构。它独特之处在于直接处理原始UTF-8字节,无需分词器即可应对多语言文本,并展现出优秀的抗噪声能力。该模型在大规模mC4多语言数据集上完成预训练,可通过微调适应不同下游任务。ByT5-base在处理包含噪声的文本数据时表现突出,尤其在社交媒体相关任务如TweetQA中,性能显著优于传统的mt5-base模型。
paligemma-3b-pt-896 - 轻量级视觉语言模型支持多种图像文本任务
模型图像文本生成多语言支持GithubPaliGemma微调视觉语言模型Huggingface开源项目
PaliGemma是一个轻量级视觉语言模型,基于SigLIP视觉模型和Gemma语言模型构建。该模型可处理图像和文本输入并生成文本输出,支持多语言。PaliGemma在图像描述、视觉问答、文本识别等多种视觉语言任务中表现优异。经过大规模数据预训练后,可通过微调应用于特定视觉语言场景。
byt5-large - 字节级多语言自然语言处理模型
字节级处理Huggingface模型Github预训练模型开源项目自然语言处理ByT5多语言支持
ByT5-large是一种创新的自然语言处理模型,直接处理原始UTF-8字节,无需分词器。这个Google开发的模型在mC4多语言数据集上预训练,适用于100多种语言。它采用标准Transformer架构,性能与基于token的模型相当,但在处理噪声文本、拼写和发音敏感任务方面表现更佳。ByT5-large简化了文本预处理流程,提高了模型的通用性和鲁棒性。
Qwen2.5-14B-Instruct - 多语言支持的高性能指令微调模型
Huggingface模型大语言模型人工智能GithubQwen2.5开源项目自然语言处理多语言支持
Qwen2.5-14B-Instruct是Qwen2.5系列中的14B参数指令微调大语言模型,支持29种以上语言。该模型在知识储备、编码和数学能力方面有显著提升,在指令跟随、长文本生成和结构化数据理解等领域表现卓越。它支持128K的上下文长度和8K的生成长度,采用RoPE和SwiGLU等先进架构,提供高效的多语言自然语言处理能力。
glm-4-9b-chat - 多语言支持和长文本处理的开源预训练模型
模型工具调用GLM-4-9B多语言支持开源项目Huggingface长文本推理Github大语言模型
GLM-4-9B-Chat是一款开源预训练模型,支持26种语言和128K上下文长度。模型在语义、数学、推理等领域表现优异,具备多轮对话、网页浏览和代码执行等功能。评测显示,GLM-4-9B-Chat在多项任务中表现出色,尤其是长文本处理和多语言能力。该模型提供详细使用说明,适合研究者和开发者使用。
Qwen2.5-7B-Instruct - 高效微调和内存优化的多语言大模型
Huggingface模型大语言模型长文本处理GithubQwen2.5开源项目微调多语言支持
Qwen2.5-7B-Instruct是一款多语言支持的指令微调大语言模型。它具备128K tokens的上下文理解能力,可生成8K tokens长度文本,在代码、数学等领域表现突出。该模型在指令遵循、长文本生成和结构化数据理解方面有显著提升。通过优化技术,模型微调速度提高2.2倍,同时减少62%内存使用,大幅提升了训练效率。
Llama-3.2-1B-Instruct - Unsloth技术加速大型语言模型微调 提升效率降低资源消耗
UnslothHuggingface模型内存优化模型微调Github开源项目Llama 3.2多语言支持
Llama-3.2-1B-Instruct项目利用Unsloth技术优化大型语言模型微调过程。该方法可将微调速度提升2-5倍,同时减少70%内存占用。项目提供多个Google Colab笔记本,支持Llama 3.2、Gemma 2和Mistral等模型的高效微调。这一创新技术为AI语言模型开发提供了更高效的解决方案,有助于推动相关领域的进步。
NuExtract-v1.5 - 基于AI的多语言结构化信息提取工具
Huggingface模型信息抽取长文本处理Github开源项目NuExtract多语言支持文本提取
NuExtract-v1.5是一款基于Phi-3.5-mini-instruct模型优化的结构化信息提取工具。该工具支持处理长文档,兼容英、法、西、德、葡、意等多种语言。在多项基准测试中,NuExtract-v1.5的表现超越了同类13B和34B参数的模型。使用时,只需输入文本和JSON模板即可提取所需信息。此外,NuExtract-v1.5还提供了参数量仅为0.5B的轻量级版本,以满足不同应用场景的需求。
paligemma-3b-pt-448 - 多语言视觉语言模型 适用于多种图像相关任务
模型图像文本生成多语言支持GithubPaliGemma微调视觉语言模型Huggingface开源项目
PaliGemma-3b-pt-448是一款结合SigLIP视觉模型和Gemma语言模型的多语言视觉语言模型。该模型支持图像和文本输入,生成文本输出,适用于图像描述、视觉问答和文本阅读等任务。在多项基准测试中表现优异,尤其擅长处理高分辨率图像。研究人员和开发者可将其作为预训练模型,用于微调各类视觉语言应用。
Violet_Twilight-v0.2-GGUF - SLERP技术融合的多语言AI文本生成模型
模型ChatML多语言支持Github文本生成抽样设置模型合并Huggingface开源项目
Violet_Twilight-v0.2-GGUF是一个融合Azure_Dusk-v0.2和Crimson_Dawn-v0.2的AI语言模型。它采用SLERP技术合并两个基础模型,支持包括中文在内的多种语言处理。该模型使用ChatML格式训练,具备强大的文本生成能力。Violet_Twilight-v0.2-GGUF提供多种采样设置,可根据需求调整输出效果,为AI文本生成应用提供灵活高效的解决方案。
Qwen2.5-7B - 支持长文本和多语言的先进预训练语言模型
模型代码能力多语言支持开源项目Huggingface长文本处理Github大语言模型Qwen2.5
Qwen2.5-7B是一款拥有76亿参数的大规模预训练语言模型。它支持128K tokens的上下文理解和8K tokens的文本生成,显著增强了知识储备、编码和数学能力。该模型在指令遵循、长文本生成和结构化数据理解方面表现出色,并可处理29种以上语言。Qwen2.5-7B作为基础模型,为进一步的微调和应用开发奠定了坚实基础。
piiranha-v1-detect-personal-information - 高精度多语言个人可识别信息检测模型
隐私保护Huggingface模型PiiranhaGithub开源项目多语言支持数据脱敏个人身份信息检测
Piiranha是一款高性能的多语言个人可识别信息(PII)检测模型,覆盖17种PII类型,支持6种语言。模型能识别98.27%的PII标记,总体分类准确率高达99.44%。在密码、电子邮件、电话号码和用户名等关键信息检测方面表现突出。Piiranha可应用于文本PII编辑,有效增强数据隐私保护能力。
Qwen2.5-7B-Instruct-GPTQ-Int4 - Qwen2.5系列4位量化模型支持长文本处理和多语言功能
Huggingface模型大语言模型长文本处理GithubQwen2.5开源项目多语言支持量化
Qwen2.5-7B-Instruct-GPTQ-Int4是Qwen2.5系列的4位量化指令微调模型,拥有76亿参数。该模型支持131,072个token的上下文长度和8192个token的生成长度,在知识储备、编程和数学能力方面有显著提升。它还改进了指令遵循、长文本生成和结构化数据理解等功能,支持29种以上语言,适用于多种自然语言处理任务。
MeloTTS-Korean - 开源多语言文本转语音库实现实时CPU推理
Huggingface模型Github文字转语音开源项目多语言支持实时推理MeloTTS
MeloTTS是一款开源的多语言文本转语音库,支持多种语言和口音,包括英语(美式、英式、印度、澳大利亚)、西班牙语、法语、中文、日语和韩语。该库具备混合中英文处理和CPU实时推理能力,用户可通过Python代码或在线演示使用。MeloTTS采用MIT许可证,鼓励社区参与和贡献。
MiniCPM-Llama3-V-2_5 - 手机端多模态大语言模型突破性进展:8B参数达GPT-4V水平
Huggingface模型OCR能力多模态大语言模型Github开源项目边缘设备部署多语言支持MiniCPM-Llama3-V
MiniCPM-Llama3-V-2_5是一款创新型多模态大语言模型,仅使用8B参数即达到GPT-4V级性能。该模型具备出色的OCR能力、可靠的行为表现和广泛的多语言支持,可高效部署于手机等边缘设备。支持30多种语言,并提供多种灵活部署方式,如llama.cpp、GGUF格式和LoRA微调。MiniCPM-Llama3-V-2_5标志着端侧多模态大语言模型的重要进展。
Qwen2-VL-7B-Instruct-GPTQ-Int8 - Qwen2-VL模型:支持多语言的视觉理解与设备自动化
自动操作Qwen2-VL开源项目模型Github多语言支持Huggingface多模态视频理解
Qwen2-VL模型具备多种新特性,包括对图像及长视频的高性能理解能力,以及多语言文本支持。该模型通过M-ROPE机制进行多模态处理,并在性能基准测试中,展示了其量化优化后的准确性和速度。这一特性让其能广泛用于移动设备和机器人等自动化操作。
jina-embeddings-v2-base-code - 多语言代码嵌入模型 支持长序列和高效推理
jina-embeddings-v2-base-codeHuggingface代码搜索自然语言处理嵌入模型模型多语言支持Github开源项目
jina-embeddings-v2-base-code是一款支持英语和30种常用编程语言的代码嵌入模型。它采用Bert架构和ALiBi技术,支持8192序列长度,适合处理长文档。该模型经过大规模代码数据训练,拥有1.61亿参数,可快速高效地生成嵌入。它在技术问答和代码搜索等场景表现出色,为开发者提供了实用的工具。
Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic - 多语种量化优化模型,显著降低内存占用
开源项目Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic模型模型优化Huggingface文本生成多语言支持量化Github
通过将权重和激活量化为FP8格式,该项目优化了Llama-3.1-Nemotron模型,显著降低了GPU内存与磁盘的占用。模型适用于商业与研究,支持多语言开发和会话助手的构建。利用vLLM,可以实现高效部署并具有OpenAI兼容性。Llama-3.1-Nemotron-70B-Instruct-HF-FP8-dynamic在诸多测试中表现优良,在Arena-Hard评估中达99.41%的恢复率。
MeloTTS-English-v3 - 多语言实时文本转语音系统 支持CPU推理
MeloTTS模型多语言支持开源项目Huggingface实时推理文字转语音Github
MeloTTS-English-v3是一个多语言文本转语音系统,支持多种语言和口音,包括美式、英式、印度式和澳大利亚式英语,以及西班牙语、法语、中文、日语和韩语。该项目特点包括混合中英文支持和CPU实时推理能力。用户可通过Python代码或MyShell平台使用MeloTTS。项目采用MIT许可证,开源社区可自由贡献。