热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#LORA
ChatGLM-Math: 通过自我批评流程提升大语言模型的数学问题解决能力
2 个月前
ChatGLM-Math是一个创新的框架,旨在同时提升大语言模型在数学和语言方面的能力。它采用自我批评流程,无需外部监督模型即可生成反馈,显著提高了模型解决数学问题的能力,同时保持了语言能力的提升。
ChatGLM-6B
微调
LORA
PPO
数学计算
Github
开源项目
2 个月前
相关项目
chatglm-maths
该项目旨在优化ChatGLM-6B模型的整数和小数四则运算能力。项目采用LORA、PPO等多种训练方法,支持GPU和CPU环境。内容包括自动生成的训练样本、微调数据集、LORA权重,以及环境配置和使用说明。这一工具主要面向开发者和研究人员,用于提升大语言模型的数学计算表现。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号