#中英双语

YuLan-Chat: 中国人民大学开发的开源大规模语言模型

2024年09月05日
Cover of YuLan-Chat: 中国人民大学开发的开源大规模语言模型

ChatGLM-6B:开源双语对话语言模型的新突破

2024年09月05日
Cover of ChatGLM-6B:开源双语对话语言模型的新突破

HunyuanDiT:腾讯推出的强大多分辨率扩散变换器模型

2024年09月05日
Cover of HunyuanDiT:腾讯推出的强大多分辨率扩散变换器模型

VisCPM: 基于CPM的中英双语多模态大模型

2024年09月05日
Cover of VisCPM: 基于CPM的中英双语多模态大模型

Baichuan-7B:开源大规模预训练语言模型的新标杆

2024年09月02日
Cover of Baichuan-7B:开源大规模预训练语言模型的新标杆
相关项目
Project Cover

Baichuan-7B

Baichuan-7B是由百川智能开发的开源可商用中英双语大规模预训练语言模型。基于Transformer结构,该模型在1.2万亿tokens上训练,拥有70亿参数,并提供4096长度的上下文窗口。在中文和英文的基准测试(C-Eval和MMLU)中表现出色。该模型可在Hugging Face和ModelScope平台上获取,适合开发者和研究人员使用。

Project Cover

HunyuanDiT

HunyuanDiT是一个多分辨率扩散变换器模型,具有细粒度的中英文理解能力。该模型采用优化的变换器结构、文本编码器和位置编码,通过迭代数据流程提升性能。HunyuanDiT支持多轮多模态对话,可根据上下文生成和优化图像。经专业评估,该模型在中文到图像生成方面达到开源模型的先进水平。

Project Cover

VisCPM

VisCPM是基于CPM-Bee语言模型开发的开源多模态大模型系列,包含VisCPM-Chat和VisCPM-Paint两个模型。VisCPM-Chat支持中英双语多模态对话,VisCPM-Paint实现文到图生成。该项目仅通过英文数据预训练即实现了出色的中文多模态能力,在中文开源多模态模型中表现优异。VisCPM开源供个人和研究使用,旨在促进多模态大模型领域进步。

Project Cover

ChatGLM-6B

ChatGLM-6B是一款开源的中英双语对话语言模型,采用GLM架构,拥有62亿参数。该模型支持低资源设备部署,6GB显存即可运行。经过约1T标识符训练和多种技术优化,ChatGLM-6B能生成贴近人类偏好的回答。模型提供高效参数微调方法,便于开发者进行应用定制。该项目完全开放学术研究,同时允许免费商业使用,致力于推动大模型技术进步。

Project Cover

YuLan-Chat

YuLan-Chat是中国人民大学高瓴人工智能学院开发的开源大语言模型,专注中英双语能力。通过大规模预训练和课程学习,提升了语言能力、实用性和安全性。支持4K长上下文,扩充词表优化中文处理。最新版YuLan-Chat-3-12B在MMLU、C-Eval等多项基准测试表现优异,展现了卓越的双语能力和通用智能水平。

Project Cover

MiniCPM-Embedding

MiniCPM-Embedding是一款中英双语文本嵌入模型,由面壁智能、清华大学和东北大学共同开发。模型基于MiniCPM-2B-sft-bf16训练,采用双向注意力和加权平均池化技术,在中英文检索和跨语言检索任务中表现出色。模型参数为2.4B,嵌入维度2304,最大支持512个输入tokens。MiniCPM-Embedding在多项评测中展现了优秀性能,尤其在跨语言检索任务中表现突出,为中英文文本处理和检索提供了有力工具。

Project Cover

chatglm-6b

该模型是一个基于 GLM 的中英双语开源对话工具,拥有 62 亿参数,通过量化技术实现低显存要求,适合消费级显卡本地部署。专注于中文问答及对话功能,具有监督微调和人类反馈强化学习功能。升级版提供更高性能和效率,研究者可完全开放使用,而商用需要填问卷。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号