Logo

#中英双语

YuLan-Chat: 中国人民大学开发的开源大规模语言模型

2 个月前
Cover of YuLan-Chat: 中国人民大学开发的开源大规模语言模型

HunyuanDiT:腾讯推出的强大多分辨率扩散变换器模型

2 个月前
Cover of HunyuanDiT:腾讯推出的强大多分辨率扩散变换器模型

Baichuan-7B:开源大规模预训练语言模型的新标杆

2 个月前
Cover of Baichuan-7B:开源大规模预训练语言模型的新标杆

ChatGLM-6B:开源双语对话语言模型的新突破

2 个月前
Cover of ChatGLM-6B:开源双语对话语言模型的新突破

VisCPM: 基于CPM的中英双语多模态大模型

2 个月前
Cover of VisCPM: 基于CPM的中英双语多模态大模型

相关项目

Project Cover
Baichuan-7B
Baichuan-7B是由百川智能开发的开源可商用中英双语大规模预训练语言模型。基于Transformer结构,该模型在1.2万亿tokens上训练,拥有70亿参数,并提供4096长度的上下文窗口。在中文和英文的基准测试(C-Eval和MMLU)中表现出色。该模型可在Hugging Face和ModelScope平台上获取,适合开发者和研究人员使用。
Project Cover
HunyuanDiT
HunyuanDiT是一个多分辨率扩散变换器模型,具有细粒度的中英文理解能力。该模型采用优化的变换器结构、文本编码器和位置编码,通过迭代数据流程提升性能。HunyuanDiT支持多轮多模态对话,可根据上下文生成和优化图像。经专业评估,该模型在中文到图像生成方面达到开源模型的先进水平。
Project Cover
VisCPM
VisCPM是基于CPM-Bee语言模型开发的开源多模态大模型系列,包含VisCPM-Chat和VisCPM-Paint两个模型。VisCPM-Chat支持中英双语多模态对话,VisCPM-Paint实现文到图生成。该项目仅通过英文数据预训练即实现了出色的中文多模态能力,在中文开源多模态模型中表现优异。VisCPM开源供个人和研究使用,旨在促进多模态大模型领域进步。
Project Cover
ChatGLM-6B
ChatGLM-6B是一款开源的中英双语对话语言模型,采用GLM架构,拥有62亿参数。该模型支持低资源设备部署,6GB显存即可运行。经过约1T标识符训练和多种技术优化,ChatGLM-6B能生成贴近人类偏好的回答。模型提供高效参数微调方法,便于开发者进行应用定制。该项目完全开放学术研究,同时允许免费商业使用,致力于推动大模型技术进步。
Project Cover
YuLan-Chat
YuLan-Chat是中国人民大学高瓴人工智能学院开发的开源大语言模型,专注中英双语能力。通过大规模预训练和课程学习,提升了语言能力、实用性和安全性。支持4K长上下文,扩充词表优化中文处理。最新版YuLan-Chat-3-12B在MMLU、C-Eval等多项基准测试表现优异,展现了卓越的双语能力和通用智能水平。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号