#Transformer结构
Baichuan-7B - 开源中英双语大规模预训练模型,支持商用
Baichuan-7B预训练语言模型开源可商用中英双语Transformer结构Github开源项目
Baichuan-7B是由百川智能开发的开源可商用中英双语大规模预训练语言模型。基于Transformer结构,该模型在1.2万亿tokens上训练,拥有70亿参数,并提供4096长度的上下文窗口。在中文和英文的基准测试(C-Eval和MMLU)中表现出色。该模型可在Hugging Face和ModelScope平台上获取,适合开发者和研究人员使用。
Qwen1.5-1.8B-Chat - 跨语言能力与性能优化的前沿语音模型
HuggingfaceQwen1.5开源项目代码生成多语言支持模型Github语言模型Transformer结构
Qwen1.5是Qwen2的测试版本,显著提高了聊天模型的人类偏好性能和多语言支持,并能处理32K上下文长度。其基于Transformer架构,采用了SwiGLU激活函数及多种注意力机制,并改进了分词器以增强多语言和代码适应性。通过数据预训练与后期优化,该模型在对话系统中的表现尤为突出。