#数学推理

ToRA - 改进数学推理问题解决的工具集成代理
ToRA数学推理工具集成模型发布开源Github开源项目
ToRA是一款工具集成推理代理,能够通过与外部工具互动解决复杂的数学推理问题。ToRA模型结合了自然语言推理和计算工具的优势,在多个数学任务中表现优异,尤其是ToRA-Code-34B和ToRA-70B,显著提升了数学数据集的准确率。此项目的开源代码和模型为进一步研究数学问题的解决提供了强大的资源。
abel - 数学生成式AI Abel 7B模型在GSM8K和MATH上取得突破性成果
AbelGAIR数学推理生成性AI模型性能Github开源项目
Abel项目通过优化数学推理模型,在GSM8K和MATH数据集上取得了显著进展。特别是其7B模型达到了超过80%的准确率,并在多个数学数据集上展示了优秀的泛化能力。该项目采用独特的Parental Oversight策略和SFT(监督微调),显著提升了模型性能,无需依赖外部工具和奖励模型。
MathPile - 数学预训练数据集
MathPile数学语料库高质量数据数学推理预训练Github开源项目
本页面介绍了MathPile,这是一个专注于数学领域的高质量大规模预训练数据集,包含约95亿个标记。MathPile整合了来自教科书、arXiv、Wikipedia等多种来源的数据,确保了内容的多样性和覆盖面。项目注重数据质量,采用严格的预处理和过滤,并提供详细的数据文档和质量注释。MathPile旨在提升语言模型在数学推理方面的能力,同时页面也提供了项目的最新动态、技术报告、使用限制和许可证信息。
DeepSeek-Math - 开源数学推理模型的新突破
DeepSeekMath大语言模型数学推理开源模型人工智能Github开源项目
DeepSeek-Math是基于DeepSeek-Coder-v1.5 7B预训练的开源数学推理模型。在MATH基准测试中,它达到51.7%的成绩,接近Gemini-Ultra和GPT-4的水平。项目提供基础、指令微调和强化学习三个7B模型版本,支持数学问题求解、工具使用和定理证明。DeepSeek-Math在保持通用能力的同时提升了数学推理能力,为数学研究提供了新的AI工具。
InternLM-Math - 开源双语数学推理大模型
InternLM-Math数学推理大语言模型开源模型人工智能Github开源项目
InternLM-Math是一个开源的双语数学推理大模型,在形式化和非形式化数学推理方面表现优异。它集成了数学问题求解、证明、验证和增强等功能。该模型在MiniF2F、MATH和GSM8K等基准测试中展现出领先性能,并支持使用Lean语言进行可验证的数学推理。InternLM-Math还可作为奖励模型和数学问题增强助手,为数学研究和应用提供有力支持。
MathVista - 视觉数学推理评估基准
MathVista数学推理视觉理解大语言模型多模态模型Github开源项目
MathVista是一个评估AI模型视觉数学推理能力的基准测试。该数据集包含6,141个样本,涵盖31个多模态数据集。任务要求模型具备深度视觉理解和复合推理能力,对当前顶尖AI模型构成挑战。MathVista为研究人员提供了一个衡量AI模型在视觉数学任务中表现的标准化工具。
DeepSeek-Coder-V2-Lite-Base - 强大开源语言模型,支持代码与数学任务
Github数学推理模型开源开源项目语言模型代码智能DeepSeek-Coder-V2Huggingface
DeepSeek-Coder-V2-Lite-Base是一种先进的开源Mixture-of-Experts代码语言模型,专门用于代码和数学推理任务。它支持338种编程语言,拥有128K上下文长度,与DeepSeek-Coder-33B相比,在多领域性能显著提升。通过Huggingface平台,用户可轻松访问并进行推理,非常适合开发者和研究人员。
MAmmoTH2-7B-Plus - 增强大型语言模型推理能力的创新研究
大语言模型Github开源项目MAmmoTH2指令微调Huggingface数学推理模型
MAmmoTH2项目通过创新的指令微调技术,提升大型语言模型在推理基准上的显著表现。该项目高效采集了来自预训练网络语料的1000万条指令-响应对,成功开发出无需特定领域数据且在MATH与GSM8K基准上表现优异的模型。MAmmoTH2-Plus进一步基于公共数据进行训练,在推理与聊天机器人领域设定了新标准。本项目展示了一种获取大规模优质指令数据的高性价比方法,提供了增强大型语言模型推理能力的全新视角。
Qwen2-Math-1.5B-Instruct - Qwen2系列专业数学推理大模型
模型数学推理Github大语言模型Qwen2-Math指令模型Huggingface开源项目自然语言处理
Qwen2-Math-1.5B-Instruct是基于Qwen2系列开发的数学推理专用指令模型。该模型在解决复杂多步逻辑推理的数学问题上表现优异,性能超越多数开源模型。目前主要支持英文对话,可通过Hugging Face Transformers或ModelScope轻松部署使用。作为一个专业的数学推理工具,它为科研社区解决高级数学问题提供了有力支持。
Yi-1.5-6B-Chat - 提升代码、数学、推理能力的开源AI模型
基准测试语料库语言理解Yi-1.5HuggingfaceGithub数学推理开源项目模型
Yi-1.5在编码、数学、推理和指令执行方面表现卓越,其通过训练5000亿高质量语料和300万多样化样本的微调实现了更强的表现。同时,Yi-1.5-6B-Chat等多个模型版本提供了不同的上下文长度以适应各种应用场景需求。这些模型在基准测试中表现优异,并且在同尺寸开源模型中领先。用户可通过Hugging Face、ModelScope等平台获取模型资源,快速应用于项目中。
WizardMath-7B-V1.1 - 新一代数学推理模型优化Mistral-7B架构实现卓越性能提升
机器学习大语言模型AI训练Github开源项目Huggingface数学推理WizardMath模型
WizardMath-7B-V1.1基于Mistral-7B架构开发,通过强化进化指令训练方法提升数学推理能力。在GSM8k和MATH基准测试中分别达到83.2和33.0的评分,达到7B规模模型中的最佳水平。这一开源数学推理模型展现出与商业大模型相当的解题表现,为数学问题求解提供了新的解决方案。
SeaLLM-7B-v2 - 东南亚多语言大模型的新选择
Github开源项目多语言SeaLLM-7B-v2Huggingface数学推理GPT-3.5东南亚语言模型
SeaLLM-7B-v2是一款经过多语言优化的开源大模型,专注于提升东南亚语言的推理能力。与前代 SeaLLM-13B 相比,该模型体积减小一半,但性能表现更出色,特别是在78.2分的GSM8K零样本推理任务中领先同类产品,并在多种语言的数学推理测试中超过GPT-3.5。凭借其稳健的多语言支持和开源特性,SeaLLM-7B-v2在数学推理、常识推理和多语言知识评估等多个领域中展示了强大的应用潜力,成为多语言文化与技术研究的有力工具。