相关项目
rho
Rho-1项目采用选择性语言建模(SLM)技术,通过聚焦有价值token进行预训练。该模型在GSM8k和MATH等数学推理任务上表现突出,以较少训练量达到基线水平。项目发布了base和code interpreter等多个版本,展现了优秀的数学推理能力。
Abel-7B-002
Abel-7B-002是一款在数学和推理能力方面表现突出的7B参数大语言模型。相较于前代模型,它在GSM8K和MATH等数学基准测试中分别提升了35%和126%的性能。在7B规模模型中,Abel-7B-002在多项任务上展现出领先优势,尤其在GSM8K和MATH测试中分别达到80.44和29.46的最高分。除数学领域外,该模型在语言理解和常识推理等方面也有出色表现,展示了良好的泛化能力。