#多语言支持
glm-4-9b-chat-1m
GLM-4-9B-Chat-1M 是智谱 AI 开发的先进预训练模型,具备网页浏览、代码执行和长文本推理等功能,支持 26 种语言,适用于需要大规模上下文处理的应用场景。最新更新提升了处理能力,支持长达 1M 上下文长度。
Qwen2.5-32B-Instruct-GPTQ-Int4
Qwen2.5是最新的大型语言模型,拥有32.5B参数和支持29种语言。其特点包括增强的代码和数学处理能力,改进的指令遵循和长文本生成能力,及对结构化数据的理解。该版本支持长上下文达128K tokens且可生成超过8K tokens的文本,采用GPTQ 4-bit量化,适用于多种文本生成应用。
Qwen1.5-4B
Qwen1.5-4B是一款多语言Transformer模型,具有8种模型规模,支持32K上下文长度且无需信任远程代码。其设计基于SwiGLU激活和多重注意力机制,并通过改进型分词器实现高效多样的文本生成。
Qwen2.5-1.5B-Instruct-bnb-4bit
Qwen2.5系列包括多种尺寸和优化功能,提升编程与数学能力,支持29种语言,并具备长上下文处理能力。利用Google Colab上的免费notebook,可实现模型微调的速度提升和内存使用优化。Qwen2.5-1.5B-Instruct强化了指令响应、长文本生成、多语言处理及结构化数据处理能力。
Qwen1.5-32B-Chat-GGUF
Qwen1.5是基于Transformer的语言模型,在多个模型规模和多语言支持方面有显著提升。支持从0.5B到72B的不同模型规模,表现出色的人类偏好能力,所有模型都稳定支持32K上下文长度,无需额外信任远程代码。项目提供多种量化模型格式,并评估了Wiki数据集上的模型困惑度。改进的分词器增强了对多种自然语言和代码的支持。
Qwen2.5-32B-Instruct-GPTQ-Int8
Qwen2.5-32B-Instruct-GPTQ-Int8是Qwen2.5系列的量化版本,通过GPTQ 8位量化技术实现高效部署。模型支持29种语言交互,具备128K超长上下文理解和8K文本生成能力。在编程、数学计算、文本理解等任务中表现优异,同时对结构化数据处理能力显著提升。该模型采用325亿参数规模,适合在资源受限环境中运行
Qwen1.5-1.8B-Chat
Qwen1.5是Qwen2的测试版本,显著提高了聊天模型的人类偏好性能和多语言支持,并能处理32K上下文长度。其基于Transformer架构,采用了SwiGLU激活函数及多种注意力机制,并改进了分词器以增强多语言和代码适应性。通过数据预训练与后期优化,该模型在对话系统中的表现尤为突出。
Qwen2.5-14B-Instruct-bnb-4bit
Qwen2.5模型利用Unsloth方法优化指令微调过程,节省70%的内存,支持多种模型如Llama 3.1和Gemma 2。同时,提供易用的Google Colab工具,支持多语言和长文本处理,适用于生成长达8000字符的内容,并集成到Transformers库中,便于部署应用。
Qwen2.5-0.5B-bnb-4bit
Qwen2.5是一款先进的自然语言处理工具,支持29种语言,显著提高了指令执行、长文本生成和结构化数据理解能力。基础模型具有0.5亿参数,采用变压器架构,支持128K的上下文长度。用户可以通过Unsloth平台轻松微调模型,降低内存占用,提高处理速度,从而为开发者提供创新和优化的性能支持。