Logo

#ChatGLM-6B

ChatGLM-Math: 通过自我批评流程提升大语言模型的数学问题解决能力

1 个月前
Cover of ChatGLM-Math: 通过自我批评流程提升大语言模型的数学问题解决能力

ChatGLM-Tuning: 基于ChatGLM-6B和LoRA的开源微调方案

2 个月前
Cover of ChatGLM-Tuning: 基于ChatGLM-6B和LoRA的开源微调方案

CodeGen: 从AI编程助手到代码生成革命

2 个月前
Cover of CodeGen: 从AI编程助手到代码生成革命

ChatGLM-6B:开源双语对话语言模型的新突破

2 个月前
Cover of ChatGLM-6B:开源双语对话语言模型的新突破

相关项目

Project Cover
ChatGLM-6B
ChatGLM-6B是一款开源的中英双语对话语言模型,采用GLM架构,拥有62亿参数。该模型支持低资源设备部署,6GB显存即可运行。经过约1T标识符训练和多种技术优化,ChatGLM-6B能生成贴近人类偏好的回答。模型提供高效参数微调方法,便于开发者进行应用定制。该项目完全开放学术研究,同时允许免费商业使用,致力于推动大模型技术进步。
Project Cover
codegen
Codegen是一个集成Salesforce codegen和THUDM/ChatGLM-6B的开源项目,提供代码生成和智能对话功能。支持多种编程语言,具备web服务器支持,易于集成到开发工作流。项目提供在线演示和VS Code扩展,便于快速体验和使用。适合寻求高效编程辅助工具的开发者。
Project Cover
ChatGLM-Tuning
ChatGLM-Tuning项目是一个基于ChatGLM-6B和LoRA技术的语言模型微调解决方案。该项目包含数据预处理、模型训练和推理功能,支持Alpaca数据集。它提供预训练LoRA模型,并计划引入中文数据和RLHF技术。这一方案适用于16GB以上显存的GPU环境,为开发者提供了一种经济高效的大型语言模型定制途径。
Project Cover
chatglm-maths
该项目旨在优化ChatGLM-6B模型的整数和小数四则运算能力。项目采用LORA、PPO等多种训练方法,支持GPU和CPU环境。内容包括自动生成的训练样本、微调数据集、LORA权重,以及环境配置和使用说明。这一工具主要面向开发者和研究人员,用于提升大语言模型的数学计算表现。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号