α-UMi:小型语言模型作为弱工具学习者的多智能体系统
近年来,大型语言模型(LLM)在各种任务中展现出了惊人的能力。然而,单个LLM智能体在实际应用中仍然面临着一些限制。为了克服这些限制,研究人员提出了多LLM智能体协作的新方法 - α-UMi系统。
α-UMi是一个基于多个小型语言模型协作的智能体系统,专门用于工具学习任务。它将单个LLM的能力分解为三个组件:规划器、调用器和总结器。在每个执行步骤中,规划器根据系统状态生成当前步骤的理由,并选择调用器或总结器生成下游输出。调用器在规划器的指导下负责调用特定工具进行交互。总结器则在规划器的指导下,根据执行轨迹制定最终的用户答案。
与传统的单一LLM智能体框架相比,α-UMi具有以下优势:
-
使小型LLM能够协作,在工具学习方面的表现超过强大的封闭源大型LLM。
-
比单一LLM智能体系统更灵活的提示设计。
-
采用两阶段全局到局部渐进式微调(GLPFT)方法,成功训练多LLM智能体。
α-UMi的工作流程如下:
- 规划器接收用户任务,生成执行计划。
- 调用器根据计划调用相关工具。
- 总结器根据执行轨迹生成最终答案。
- 如有需要,规划器会重新规划并重复以上步骤。
该项目提供了α-UMi系统的预训练和指令微调检查点,以及详细的数据准备、模型训练和推理评估说明。实验结果表明,α-UMi在静态评估和实时评估中都优于基线模型,展示了多LLM智能体协作的巨大潜力。
未来,研究人员计划将α-UMi扩展到更多智能体任务,并发布用于ToolAlpaca、MATH和GSM8K等任务的模型和代码。这个项目为小型语言模型在复杂任务中的应用开辟了新的可能性,有望推动多智能体系统在人工智能领域的进一步发展。
Multi-LLM-Agent项目为我们展示了多个小型语言模型协作可以实现强大功能的潜力。这种方法不仅可以提高模型性能,还可能降低计算成本,使更多组织和研究人员能够开发和应用先进的AI系统。随着该领域的不断发展,我们期待看到更多创新的多智能体架构和应用出现。