#ChatGLM-6B

ChatGLM-6B - 高效灵活的开源双语对话模型的本地部署与定制
Github开源项目开源大语言模型AI对话中英双语ChatGLM-6B
ChatGLM-6B是一款开源的中英双语对话语言模型,采用GLM架构,拥有62亿参数。该模型支持低资源设备部署,6GB显存即可运行。经过约1T标识符训练和多种技术优化,ChatGLM-6B能生成贴近人类偏好的回答。模型提供高效参数微调方法,便于开发者进行应用定制。该项目完全开放学术研究,同时允许免费商业使用,致力于推动大模型技术进步。
codegen - 开源智能代码生成与对话平台
Github开源项目代码生成模型部署AI聊天机器人ChatGLM-6BCodegen
Codegen是一个集成Salesforce codegen和THUDM/ChatGLM-6B的开源项目,提供代码生成和智能对话功能。支持多种编程语言,具备web服务器支持,易于集成到开发工作流。项目提供在线演示和VS Code扩展,便于快速体验和使用。适合寻求高效编程辅助工具的开发者。
ChatGLM-Tuning - ChatGLM-6B和LoRA结合的经济型语言模型微调方案
Github开源项目深度学习AI模型微调LoRAChatGLM-6B
ChatGLM-Tuning项目是一个基于ChatGLM-6B和LoRA技术的语言模型微调解决方案。该项目包含数据预处理、模型训练和推理功能,支持Alpaca数据集。它提供预训练LoRA模型,并计划引入中文数据和RLHF技术。这一方案适用于16GB以上显存的GPU环境,为开发者提供了一种经济高效的大型语言模型定制途径。
chatglm-maths - ChatGLM-6B数学运算能力优化项目
Github开源项目微调PPOChatGLM-6B数学计算LORA
该项目旨在优化ChatGLM-6B模型的整数和小数四则运算能力。项目采用LORA、PPO等多种训练方法,支持GPU和CPU环境。内容包括自动生成的训练样本、微调数据集、LORA权重,以及环境配置和使用说明。这一工具主要面向开发者和研究人员,用于提升大语言模型的数学计算表现。
chatglm-6b - 中英双语开源对话模型实现低显存本地部署
Github开源项目开源语言模型AI技术模型Huggingface中英双语ChatGLM-6B
该模型是一个基于 GLM 的中英双语开源对话工具,拥有 62 亿参数,通过量化技术实现低显存要求,适合消费级显卡本地部署。专注于中文问答及对话功能,具有监督微调和人类反馈强化学习功能。升级版提供更高性能和效率,研究者可完全开放使用,而商用需要填问卷。