#强化学习

AgileRL - 革新强化学习的高效开发框架
AgileRL强化学习超参数优化进化算法机器学习Github开源项目
AgileRL是一个创新的深度强化学习库,专注于提升强化学习的开发效率。通过引入RLOps概念,该库显著缩短了模型训练和超参数优化的时间。AgileRL采用进化超参数优化技术,自动找到最优超参数,减少了大量训练运行。它支持多种先进的可进化算法,包括单智能体、多智能体、离线学习和上下文多臂赌博机,并具备分布式训练能力。相比传统方法,AgileRL在超参数优化速度上实现了10倍的提升。
MEEE - 模型集成探索与利用强化学习算法
MEEE强化学习模型集成MuJoCo代码复现Github开源项目
MEEE是一个开源项目,提出了基于模型集成的探索与利用方法,旨在提高强化学习的样本效率。该项目基于MBPO代码库开发,实现了相关论文中的实验。MEEE提供了详细的安装说明、使用指南和日志记录方法,支持在MuJoCo环境中进行实验。通过创新的模型集成策略,MEEE平衡了探索和利用,有效提升了强化学习算法的性能和效率。
dreamerv3-torch - DreamerV3算法的PyTorch实现 跨领域强化学习新突破
DreamerV3强化学习世界模型深度学习人工智能Github开源项目
dreamerv3-torch是DreamerV3算法的PyTorch实现。该项目提供了详细的安装和使用说明,支持DMC、Atari、Crafter和Minecraft等多种基准测试环境。DreamerV3作为一种可扩展的强化学习算法,能在多个领域中以固定超参数实现优异性能。该实现参考了多个知名强化学习项目,为研究人员和开发者提供了实用的工具。
rl-mpc-locomotion - 强化学习与模型预测控制结合的四足机器人运动框架
RL MPC Locomotion四足机器人强化学习模型预测控制Isaac GymGithub开源项目
这个项目为四足机器人运动任务开发了一个快速仿真和强化学习训练框架。它采用分层控制结构,结合高层策略网络和低层模型预测控制器。其MPC控制器基于Cheetah Software改写,便于移植到主流仿真平台。项目利用NVIDIA Isaac Gym进行并行训练,使用Unitree Robotics的Aliengo模型,并实现了从仿真到实物的迁移。该框架适用于多种四足机器人类型和步态,为相关研究提供了有力支持。
simple_rl - 轻量级Python强化学习实验框架
强化学习Python简单框架实验复现结果Github开源项目
simple_rl框架专注于简化强化学习实验流程和提高结果可复现性。它内置了网格世界、OpenAI Gym等MDP环境,实现了Q-learning和R-Max等经典算法。新增的实验复现功能方便研究者重现成果。该框架支持Python 2和3,为强化学习研究和教学提供了实用工具。
Thought-Cloning - 模仿人类思维的智能体学习框架
Thought Cloning人工智能模仿学习强化学习神经网络Github开源项目
Thought Cloning是一种模仿学习框架,训练智能体模拟人类思维模式以提升性能和可解释性。该项目基于BabyAI环境实现,采用合成思维数据集。研究显示,这种方法能提高智能体在复杂任务中的表现和泛化能力。项目开源了代码、数据集和预训练模型,为研究人员提供了分析智能体思维过程的工具。
BeautifulAlgorithms.jl - Julia语言实现的简洁算法库
Julia算法机器学习优化强化学习Github开源项目
BeautifulAlgorithms.jl是一个Julia语言算法库,涵盖机器学习、优化等多个领域。项目提供简洁的算法实现和测试用例,主要用于学习目的。所有代码经Carbon格式化,方便用户理解和学习。
purejaxrl - JAX强化学习框架实现千倍性能提升
PureJaxRL强化学习Jax性能优化并行训练Github开源项目
PureJaxRL是一个端到端JAX强化学习框架,将整个训练流程(包括环境)实现在JAX中。通过JIT编译和避免CPU-GPU数据传输,在GPU上并行运行多个智能体时,性能比PyTorch实现提升1000倍以上。框架支持使用JAX的jit、vmap等功能优化训练流程,实现高效并行训练、快速超参数调优和元进化算法探索。
DexterousHands - 双臂灵巧操作强化学习框架
Bi-DexHands双手操作强化学习Isaac Gym机器人控制Github开源项目
Bi-DexHands是基于Isaac Gym的双手灵巧操作任务集和强化学习算法框架。它提供高效模拟环境,支持多种强化学习方法,包含丰富双手操作任务。单GPU可达40,000+FPS,为研究手部灵巧性和双手协调提供工具。
Gymnasium-Robotics - 基于Gymnasium和MuJoCo的强化学习机器人环境库
强化学习机器人环境GymnasiumMuJoCoPythonGithub开源项目
Gymnasium-Robotics是一个强化学习机器人环境库,基于Gymnasium API和MuJoCo物理引擎开发。它提供多种机器人环境,包括Fetch机械臂、Shadow灵巧手等,并支持多目标API。该项目还集成了D4RL环境,如迷宫导航和Adroit机械臂。Gymnasium-Robotics为研究人员提供丰富的机器人操作任务,有助于开发和测试强化学习算法。
gym-anytrading - 基于OpenAI Gym的交易算法模拟环境
OpenAI Gym强化学习交易算法FOREX股票交易Github开源项目
gym-anytrading提供了一系列基于OpenAI Gym的交易算法模拟环境。它包含TradingEnv、ForexEnv和StocksEnv三个环境,支持外汇和股票市场交易模拟。该项目专注于简单性、灵活性和全面性,可以轻松定制交易动作、仓位和奖励函数等。它还提供了示例代码,展示如何与Stable-Baselines3等库集成使用。项目GitHub链接:https://github.com/AminHP/gym-anytrading
awesome-offline-rl - 离线强化学习研究论文和开源资源集锦
离线强化学习强化学习机器学习人工智能offline RLGithub开源项目
该项目汇集了离线强化学习(Offline RL)领域的研究论文、综述文章、开源实现等资源。内容涵盖离线RL的理论方法、基准测试、应用案例及相关主题。项目由康奈尔大学研究人员维护,为学术界和产业界提供离线RL的最新进展和重要文献。
skrl - 开源模块化强化学习库
SKRL强化学习PyTorchJAX环境接口Github开源项目
skrl是基于PyTorch和JAX的开源模块化强化学习库。支持OpenAI Gym、Farama Gymnasium等多种环境接口,并兼容NVIDIA Isaac系列环境。该库注重模块化设计、代码可读性和实现透明度,允许同时训练多个智能体,可在单次运行中共享或独立资源。skrl为强化学习研究和开发提供了灵活高效的工具。
RLcycle - 开源强化学习框架 提供多种算法实现
强化学习PyTorchHydraRayWandBGithub开源项目
RLcycle是一个开源的强化学习框架,实现了多种经典算法如DQN、A2C/A3C、DDPG和SAC。框架基于PyTorch构建,集成了Hydra配置管理、Ray并行计算和WandB日志记录功能。RLcycle提供可重用组件便于快速开发,支持Atari和PyBullet等环境,并附有使用指南和性能基准。该项目适合研究人员和开发者学习和实践各类强化学习算法。
DRL-Pytorch - PyTorch实现的深度强化学习算法集合
强化学习PyTorchDRL算法深度学习人工智能Github开源项目
DRL-Pytorch项目提供多种常用深度强化学习算法的PyTorch实现,包括Q-learning、DQN变体、PPO、DDPG、TD3和SAC等。代码结构清晰统一,便于研究人员和开发者比较不同算法。项目还包含详细使用说明、依赖列表和学习资源推荐,有助于快速入门和实践。
ns3-gym - 将强化学习引入网络仿真研究的创新框架
ns3-gymOpenAI Gymns-3强化学习网络模拟Github开源项目
ns3-gym是一个整合OpenAI Gym和ns-3的开源框架,旨在促进强化学习在网络研究中的应用。该项目提供了自定义仿真环境的能力,包含认知无线电和RL-TCP等实例。通过详细的文档和示例,ns3-gym为研究人员提供了探索机器学习在网络优化领域潜力的平台。项目提供了完整的安装指南和API文档,便于研究者快速上手。ns3-gym的灵活架构支持各种网络场景的模拟,为网络协议和通信技术的创新研究开辟了新途径。
arena - 多样化强化学习环境平台,支持多种游戏和学习模式
DIAMBRA Arena强化学习游戏环境AI训练对抗学习Github开源项目
DIAMBRA Arena是一个开源的强化学习环境平台,集成了多款经典街机格斗游戏。它提供符合OpenAI Gym/Gymnasium标准的Python接口,支持单人和双人模式,适用于多种强化学习研究场景。该平台兼容主流操作系统,安装简便,并配有详细文档和示例。用户注册后可免费使用,还能参与在线竞赛。
HandyRL - 高效实用的分布式强化学习框架
HandyRL强化学习分布式训练离线策略修正PyTorchGithub开源项目
HandyRL是一个基于Python和PyTorch的分布式强化学习框架,已在Kaggle竞赛中取得优异成绩。它采用离线策略修正的策略梯度算法和学习者-工作者架构,支持自定义环境和大规模训练。HandyRL的高并行能力和实用性使其在竞争性游戏AI开发中表现出色,能够快速训练出强大的AI模型。
RL-Theory-book - 强化学习理论与算法全面指南
强化学习理论算法深度学习人工智能Github开源项目
该书全面介绍强化学习理论,涵盖从基础到前沿的多个主题。内容包括元启发式方法、经典理论、基于价值和策略的方法、连续控制和基于模型的方法等。同时探讨模仿学习、内在动机和多任务学习等新兴领域。书中系统阐述理论基础和算法洞察,适合强化学习研究者和实践者参考。
LightZero - 整合MCTS与深度强化学习的轻量级算法工具包
LightZeroMCTS强化学习开源工具包算法基准测试Github开源项目
LightZero是一个开源算法工具包,整合了蒙特卡洛树搜索(MCTS)和深度强化学习(RL)。它支持AlphaZero、MuZero等多种基于MCTS的RL算法,提供详细文档和性能对比。该项目致力于标准化MCTS+RL算法,以促进相关研究和应用。LightZero的轻量级设计和易用性,有助于用户理解算法核心并进行算法间比较。
safe-control-gym - 安全控制与强化学习的物理仿真平台
safe-control-gym强化学习机器人控制仿真环境安全约束Github开源项目
'safe-control-gym'是一个开源的基于物理的仿真平台,为学习控制和强化学习研究提供CartPole和Quadrotor环境。该平台支持符号化先验动力学,实现多种扰动和约束条件,集成了多种控制器和安全过滤器。研究人员可利用此平台测试控制方法的鲁棒性和泛化能力,探索安全学习和控制领域的创新。
REINVENT4 - 人工智能驱动的多功能分子设计工具
REINVENT分子设计强化学习迁移学习化学信息学Github开源项目
REINVENT 4是一款基于强化学习的先进分子设计工具,支持从头设计、骨架跳跃和R基团替换等多种任务。它根据多组分评分标准生成优化分子,并通过迁移学习提高设计效率。该工具兼容Linux、Windows和MacOS平台,支持GPU和CPU运行,为药物研发和化学创新提供了有力支持。
robotic-warehouse - 多智能体仓库机器人协作模拟环境
多机器人仓库强化学习Gymnasium动作空间奖励机制Github开源项目
robotic-warehouse项目是一个多智能体强化学习环境,模拟仓库中多机器人移动和配送货物的场景。该环境可配置仓库大小、机器人数量、通信能力和奖励设置,支持部分可观察性、离散动作空间和碰撞动力学。研究人员可使用此环境测试和比较不同的多智能体算法,为仓库自动化研究提供了灵活真实的测试平台。
TextWorld - 文本游戏生成与强化学习训练的开源环境
TextWorld强化学习文本游戏Python库游戏生成器Github开源项目
TextWorld是一个开源的文本游戏生成器和可扩展学习环境,专门用于训练和测试强化学习智能体。该项目支持自定义游戏世界、对象和任务,提供类Gym的API接口,便于AI开发。TextWorld集成了可视化工具,兼容Python 3.9至3.12版本,适用于Linux和macOS系统。作为自然语言处理和强化学习的交叉平台,TextWorld为研究人员和开发者提供了独特的实验环境。
PufferLib - 复杂游戏环境强化学习的简化工具
PufferLib强化学习环境包装PyTorch开源项目Github
PufferLib是一个包装层工具,旨在简化复杂游戏环境中的强化学习开发。它支持原生PyTorch网络和简短的环境绑定,自动处理大部分复杂操作。该工具提供优化的LSTM支持、性能指标、本地仪表板、异步环境采样和检查点等功能,为强化学习研究提供全面解决方案。
alphagen - 强化学习驱动的自动化 Alpha 因子生成框架
AlphaGen强化学习因子生成量化投资机器学习Github开源项目
AlphaGen 是一个基于强化学习的自动化 Alpha 因子生成框架。该项目提供内置 Alpha 计算管道和外部接口,支持 PPO 算法训练。AlphaGen 还实现了基于遗传规划和深度符号回归的基准方法,以及实验性交易策略。这一工具旨在为量化投资研究和实践提供 Alpha 因子自动生成和优化的解决方案。
pgx - JAX原生并行游戏模拟器库用于强化学习研究
Pgx强化学习游戏模拟器并行计算JAXGithub开源项目
Pgx是一个基于JAX的游戏模拟器库,专注于离散状态空间的强化学习研究。该库支持多种经典和现代棋牌游戏,包括国际象棋、围棋、将棋等。Pgx利用GPU/TPU实现高效并行计算,提供丰富的游戏环境和SVG可视化功能。其兼容PettingZoo API,方便研究人员进行实验。Pgx的设计旨在为强化学习研究提供高性能、多样化的仿真环境。
open_spiel - 综合游戏AI研究框架支持多类型博弈
OpenSpiel强化学习游戏框架多智能体算法研究Github开源项目
OpenSpiel是一个专注于游戏中强化学习和搜索规划研究的开源框架。它支持多种类型的游戏环境,包括多人、零和、合作、序列、同时行动以及完美/不完美信息等。该框架提供了分析工具和评估指标,核心API使用C++实现并提供Python接口。OpenSpiel为游戏AI算法的研究和开发提供了全面的实验平台。
gym-pybullet-drones - 轻量级无人机仿真环境 助力强化学习与控制算法研究
无人机强化学习PyBullet仿真控制Github开源项目
gym-pybullet-drones是基于PyBullet的轻量级无人机仿真环境,用于强化学习和控制算法研究。支持多机协同飞行、PID控制和下洗效应模拟,兼容Gymnasium、Stable-Baselines3等框架。集成SITL仿真和固件,为无人机算法开发和测试提供灵活高效的平台。
RosettaStone - C++开发的开源炉石传说模拟器与强化学习
RosettaStone炉石传说模拟器C++强化学习Github开源项目
RosettaStone是一个使用C++17开发的开源炉石传说模拟器,具有强化学习功能。项目提供控制台和GUI模拟程序,支持C++和Python API。目前已实现大部分标准和狂野模式卡牌,未来计划开发智能AI对手、卡组推荐和网页模拟器等功能。RosettaStone支持跨平台编译,为炉石传说爱好者和AI研究者提供了实用的开发和研究工具。
ma-gym - 基于OpenAI Gym的多智能体强化学习环境库
ma-gym多智能体环境OpenAI gym强化学习Python包Github开源项目
ma-gym是一个基于OpenAI Gym构建的多智能体强化学习环境库。它包含多种场景如跳棋、战斗和捕食者与猎物等。研究人员可以方便地使用这些环境来开发和评估多智能体强化学习算法。该项目提供了详细文档和示例代码,便于快速上手。作为多智能体强化学习研究的重要工具,ma-gym已在多篇学术论文中得到引用。
humanplus - 先进AI系统实现人形机器人影随和模仿人类
HumanPlus人形机器人模仿学习强化学习姿态估计Github开源项目
HumanPlus是一个开源AI项目,致力于提升人形机器人的影随和模仿能力。项目包含两个主要组件:用于模拟环境强化学习的Humanoid Shadowing Transformer (HST)和用于现实世界模仿学习的Humanoid Imitation Transformer (HIT)。此外,HumanPlus还提供全身姿态估计和相关硬件的代码库,为研究人员和开发者提供完整的技术平台,推动人形机器人与人类互动技术的发展。
mlimpl - 全面的机器学习和深度学习算法实现库
机器学习深度学习强化学习统计学习算法实现Github开源项目
mlimpl提供了多种机器学习、深度学习和强化学习算法的实现。从线性回归、决策树到CNN、GAN、LSTM等深度模型,以及多臂老虎机、马尔可夫决策过程、DQN、Actor-Critic等强化学习算法均有涵盖。代码结构类似sklearn,配有详细文档和注释,便于学习、应用和二次开发。
Gym-Trading-Env - Gymnasium金融交易环境 支持强化学习算法研究
Gym Trading Env强化学习交易模拟Python库金融数据Github开源项目
Gym-Trading-Env是基于Gymnasium的股票交易模拟环境,专为强化学习算法研究设计。它支持多交易所数据快速下载、高效环境配置、复杂交易操作和高性能渲染。适用于Python 3.9+的Windows、Mac和Linux平台,为交易算法研究提供了简化的工具。
carla-roach - 端到端城市自动驾驶仿真框架
CARLA-Roach自动驾驶强化学习模仿学习基准测试Github开源项目
CARLA-Roach是一个端到端城市自动驾驶仿真框架,通过模仿强化学习教练实现驾驶。它提供基准测试、数据收集、强化学习训练和基于DAGGER的模仿学习功能。该项目还包含预训练模型,支持在NoCrash和CARLA Leaderboard等基准上评估。CARLA-Roach为自动驾驶研究提供了实用的仿真平台。
Book-Mathematical-Foundation-of-Reinforcement-Learning - 强化学习数学基础入门指南
强化学习数学基础算法教学视频GitHubGithub开源项目
该书提供强化学习领域的数学友好入门指南,涵盖基本概念到经典算法。通过精心设计的数学讲解和示例,帮助读者理解核心思想。配套中英文视频课程,适合本科生、研究生、研究人员和从业者。基于作者多年教学经验,旨在引导读者进入强化学习领域。