genrl
GenRL是一个基于PyTorch的强化学习库,提供可重现的算法实现和通用接口。它包含20多个从基础到高级的强化学习教程,并支持模块化和可扩展的Python编程。统一的训练和日志记录功能提高了代码复用性,同时自动超参数调整功能加速了基准测试。GenRL旨在支持新算法的实现,代码少于100行。适用于Python 3.6及以上版本,依赖于PyTorch和OpenAI Gym。
irl-imitation
该项目实现了多种逆强化学习(IRL)算法,包括线性逆强化学习、最大熵逆强化学习和深度最大熵逆强化学习,基于Python和Tensorflow。支持在2D和1D网格世界中的应用。项目依赖于Python 2.7、cvxopt、Tensorflow 0.12.1和matplotlib,通过代码示例和命令行选项,有助于快速理解和使用这些算法。为逆强化学习领域的研究者提供了重要的参考资源。
rllte
RLLTE项目受到电信长期演进标准的启发,旨在为强化学习研究与应用提供开发组件和标准。项目不仅提供高质量的算法实现,还作为开发算法的实用工具包。RLLTE支持模块化设计、优化硬件加速、兼容多种计算设备和自定义环境,且包含大量可重复使用的基准。
FL-bench
FL-bench是一个开源的联邦学习基准测试平台,实现了多种经典和前沿算法。平台支持个性化联邦学习和域泛化等研究方向,提供简单接口用于自定义数据集和模型。集成了可视化工具,方便研究人员快速实现和对比不同方法。FL-bench旨在促进联邦学习领域的创新与发展。
RLeXplore
RLeXplore是一个统一的模块化工具包,实现了八种代表性内在奖励算法。它通过标准化的程序解决了内在奖励算法比较中的混淆因素,包括实现、优化和评估方法的差异。该工具包支持多种内在奖励类型,如基于计数、好奇心驱动、基于记忆和信息论。RLeXplore提供了简便的安装方法、详细教程和基准测试结果,为内在动机强化学习研究提供了有力支持。
sheeprl
SheepRL是一个基于PyTorch和Lightning Fabric的强化学习框架。它支持PPO、SAC、Dreamer等多种算法,以及Atari、MuJoCo、Minecraft等多种环境。该框架易用可扩展,实现了算法与环境的解耦,适用于广泛的强化学习任务。在部分基准测试中,SheepRL展现出与其他框架相当甚至更优的性能,为强化学习研究和开发提供了高效工具。
sbx
SBX是Stable-Baselines3的Jax实现版本,集成了SAC、TQC、PPO等多种先进强化学习算法。它与SB3保持相同API,可与RL Zoo无缝对接,并提供详细使用示例。SBX为复杂环境和任务提供高效、可靠的强化学习实现。
DAVAR-Lab-OCR
DAVAR-Lab-OCR是海康威视研究院DAVAR实验室开发的开源OCR仓库,实现了多项最新学术成果。该工具箱涵盖文本检测、识别和端到端识别等基础OCR任务,同时包含信息提取、表格识别和版面分析等文档理解功能。基于mmdetection和mmcv框架构建,具有良好的兼容性和扩展性,为OCR领域的研究和应用提供了综合解决方案。
autonomous-learning-library
autonomous-learning-library是基于PyTorch的深度强化学习库,为快速构建和评估智能代理提供丰富组件。库中包含灵活的函数近似API、多种内存缓冲区和环境接口,并实现了A2C、DQN、PPO等主流算法。支持Atari、经典控制和机器人仿真等环境,集成Tensorboard等工具便于实验监控。该库特别强调模块化设计,便于研究人员快速实现和测试新想法。同时提供完整文档和示例项目,降低了强化学习研究的入门门槛。