#多智能体

博查AI搜索 - 多模态AI技术赋能的高效准确搜索体验
热门AI助手AI搜索引擎AI工具博查AI7.16版本更新多智能体AI应用开发内测群
博查AI搜索,一个专注于无广告环境下的搜索引擎,支持自然语言查询,能够深度解析并提供精确答案。最近的更新引入了多智能体响应和新界面,极大优化了用户体验。
openrl - 综合性强化学习平台,支持多任务训练
OpenRL强化学习PyTorch多智能体自然语言处理Github开源项目
OpenRL 是一款基于 PyTorch 的开源强化学习研究框架,支持单代理、多代理、离线强化学习、自我对弈及自然语言处理任务。框架提供统一接口、训练加速方法和多种深度学习模型支持,兼容 Gymnasium、MuJoCo、StarCraft II 等多种环境。同时,OpenRL 还支持用户自定义训练模型、奖励模型和环境配置,并提供中英文文档。
agentUniverse - 基于大语言模型的多代理框架,简化企业协作
agentUniverse多智能体协作模式领域专业知识高效解决方案Github开源项目
agentUniverse是一款灵活且易扩展的多代理框架,通过专用组件解决多领域问题,帮助开发者和企业构建高级协作代理。其独特的PEER模式和DOE模式,有效分解复杂任务,提升了数据密集型和高计算精度任务的执行效果。agentUniverse支持快速部署和代理构建,并已在多种行业中验证,未来将持续扩展新模式,增强领域知识集成与专业化定制。
langgraph - 基于图的多智能体语言模型应用开发框架
LangGraph语言模型多智能体状态管理图形结构Github开源项目
LangGraph是一个基于图的多智能体语言模型应用开发框架。它提供循环和分支逻辑、状态持久化、人机交互和流式输出等功能。与其他框架相比,LangGraph能更精细地控制应用流程和状态。该框架可与LangChain集成,但不依赖于它。开发者可利用LangGraph构建复杂的智能体工作流和定制化语言模型应用。
warp-drive - GPU驱动的高效多智能体强化学习框架
WarpDrive深度强化学习GPU加速多智能体并行计算Github开源项目
WarpDrive是一款开源的强化学习框架,专为GPU环境优化。它支持单GPU或多GPU上的端到端多智能体强化学习,通过充分利用GPU并行计算能力,显著提升训练速度。WarpDrive通过减少CPU和GPU间的数据传输,并在多智能体和多环境副本间并行运行模拟,大幅提高了计算效率。这使得同时运行海量并发模拟成为可能,实现了比传统CPU方案高出百倍的训练吞吐量。
open_spiel - 综合游戏AI研究框架支持多类型博弈
OpenSpiel强化学习游戏框架多智能体算法研究Github开源项目
OpenSpiel是一个专注于游戏中强化学习和搜索规划研究的开源框架。它支持多种类型的游戏环境,包括多人、零和、合作、序列、同时行动以及完美/不完美信息等。该框架提供了分析工具和评估指标,核心API使用C++实现并提供Python接口。OpenSpiel为游戏AI算法的研究和开发提供了全面的实验平台。
GoBigger - 基于Agar规则的多智能体决策模拟环境
GoBigger多智能体游戏环境强化学习合作竞争Github开源项目
GoBigger是一个基于Agar游戏规则的多智能体决策模拟环境。该环境支持多队伍、多智能体的合作竞争策略研究,具有可扩展性、复杂的观察空间和丰富的动作空间。GoBigger模拟了团队合作和小范围内的激烈竞争,为游戏AI开发和多智能体系统研究提供了实验平台。
Reinforcement-Learning-Papers - 强化学习顶会论文精选资源库
强化学习多智能体论文集研究趋势算法Github开源项目
这是一个汇集AAAI、IJCAI、NeurIPS等顶级会议强化学习论文的资源库。涵盖多智能体、元学习、分层学习等前沿方向,提供PDF和代码链接。项目定期更新,为研究人员追踪领域发展、探索新算法提供便捷参考。
sumo-rl - 用于智能交通信号控制的强化学习框架
SUMO-RL强化学习交通信号控制多智能体交通仿真Github开源项目
SUMO-RL是基于SUMO交通模拟器的强化学习框架,专注于智能交通信号控制。该框架提供简洁接口,支持创建单代理和多代理强化学习环境,允许自定义状态和奖励函数,并兼容主流RL库。SUMO-RL简化了交通信号控制的强化学习研究过程,适用于多种交通网络和场景。目前已应用于多项研究,覆盖从单一交叉口到大规模城市网络的各类交通控制问题。