#离线强化学习
AI-Optimizer
AI-Optimizer是一款多功能深度强化学习平台,涵盖从无模型到基于模型,从单智能体到多智能体的多种算法。其分布式训练框架高效便捷,支持多智能体强化学习、离线强化学习、迁移和多任务强化学习、自监督表示学习等,解决维度诅咒、非平稳性和探索-利用平衡等难题,广泛应用于无人机、围棋、扑克、机器人控制和自动驾驶等领域。
awesome-diffusion-model-in-rl
本项目汇总了强化学习领域应用扩散模型的最新研究论文,涵盖离线RL、机器人控制、轨迹规划等多个方向。持续追踪并整理扩散强化学习的前沿进展,为研究人员提供全面的参考资源。每篇论文均附有概述、代码链接和实验环境等详细信息,方便读者深入了解。
scope-rl
SCOPE-RL是一个用于离线强化学习的开源Python库。它实现了从数据生成到策略学习、评估和选择的完整流程。该库提供了多种离线策略评估(OPE)估计器和策略选择(OPS)方法,兼容OpenAI Gym和Gymnasium接口。SCOPE-RL还包含RTBGym和RecGym环境,用于模拟实际应用场景。它简化了离线强化学习的研究和实践过程,提高了实验的透明度和可靠性。
awesome-offline-rl
该项目汇集了离线强化学习(Offline RL)领域的研究论文、综述文章、开源实现等资源。内容涵盖离线RL的理论方法、基准测试、应用案例及相关主题。项目由康奈尔大学研究人员维护,为学术界和产业界提供离线RL的最新进展和重要文献。
Minari
Minari是一个面向离线强化学习研究的Python库,提供类似Gymnasium离线版本的功能。该库具备简洁的数据集读写API,支持远程数据集管理,并允许创建自定义数据集。Minari旨在为研究人员提供标准化工具,推动离线强化学习领域的进步。
OfflineRL-Kit
OfflineRL-Kit是基于PyTorch的离线强化学习库,提供清晰的代码结构和最新算法实现。支持CQL、TD3+BC等多种算法,具备高扩展性和强大的日志系统。该库还支持并行调优,便于研究人员进行实验。相比其他离线强化学习库,OfflineRL-Kit在性能和易用性方面都有显著优势,是离线强化学习研究的有力工具。