#推理能力
PanelGPT
PanelGPT通过引入专家小组讨论的零样本提示词,有效提升了语言模型在复杂任务上的表现。通过使用gpt-3.5-turbo进行评估,其在GSM8K数据集上的表现突出,验证了该方法的有效性。综合专家讨论模式与自洽性理论,帮助模型更准确地理解和解决问题,为语言模型的推理能力提供了新方案。
executorch
ExecuTorch 提供端到端解决方案,实现移动和边缘设备上的推理能力,涵盖穿戴设备、嵌入式设备和微控制器。作为 PyTorch Edge 生态系统的一部分,ExecuTorch 通过轻量级运行时,利用硬件能力(如 CPU、NPU 和 DSP),高效地将 PyTorch 模型部署到多种平台。其主要优势包括:广泛的兼容性、开发效率和出色的用户体验。欲了解更多技术细节和教程,请访问文档网站获取最新版本。
Chain-of-ThoughtsPapers
Chain-of-ThoughtsPapers项目收集了大型语言模型推理能力研究的关键论文。涵盖从基础到前沿的多个主题,如零样本推理、多模态推理和模型自我改进等。这些研究揭示了语言模型在复杂推理任务中的潜力,推动了自然语言处理领域的发展。项目持续更新,反映领域最新进展,为研究人员和开发者提供重要参考资料。
babilong
BABILong是一个用于评估自然语言处理模型长文本处理能力的基准测试。它将bAbI数据集的任务句子隐藏在PG19背景文本中,生成长达数百万标记的测试样本。该基准包含20个推理任务,涉及事实链接、归纳、演绎和计数等多个方面。BABILong为评估和改进大语言模型的长文本处理能力提供了有效工具,同时也对现有长文本模型提出了挑战。
Progressive-Hint
Progressive-Hint项目开发了一种名为PHP的新方法,通过渐进式提示增强大型语言模型的推理能力。这种方法简单有效,可与Chain-of-Thought和Self-Consistency等现有技术结合。PHP在AQuA、SVAMP、GSM8K和MATH等多个推理数据集上展现出卓越性能,尤其在GSM8K数据集上结合Self-Consistency达到96.5%的最佳成绩。项目提供开源PyTorch实现,为研究人员和开发者提供了实用工具。
CoT-Reasoning-Survey
本项目全面综述了链式思维推理(Chain of Thought Reasoning)领域的研究现状,包括最新进展、前沿挑战和未来方向。内容涵盖CoT在数学推理、常识推理等领域的应用,以及相关基准测试集。同时分析了CoT的核心机制,如提示工程和多模态推理。对于研究人员和从业者而言,这是了解CoT最新动态的重要参考资源。
Yi-1.5-34B-32K
Yi-1.5-34B-32K是Yi的升级版本,通过大规模语料库预训练及多样化样本微调,提升了代码编写、数学运算、推理及指令执行能力,并在语言理解领域表现优秀。该模型在基准测试中表现突出,与更大规模模型媲美甚至超越。可在诸如Hugging Face和ModelScope等平台下载,适用于多种应用场景。
internlm2_5-1_8b-chat
InternLM2.5是一个开源的18亿参数基础模型,拥有卓越的数学推理和增强的工具调用能力,其能够从多个网页搜集信息并进行分析和指令理解。在OpenCompass的评测中,该模型在MATH、GPQA等基准测试中表现突出。尽管在推理和综合能力上具有优越性,仍需注意潜在的风险输出。通过Transformers和LMDeploy工具,用户可以轻松加载和部署此模型以适应多种应用场景。
Awesome-LLM-Reasoning
Awesome-LLM-Reasoning是一个精选的资源和论文集合,旨在深入探索LLMs与MLLMs的推理能力。覆盖方法论、技术研究和实证分析等多个领域,提供最新的研究动态和技术解析,助力学术和技术人员加深对这些模型的理解。