#机器人控制

ROS-LLM - 一个用于具身智能应用的ROS框架
Github开源项目GPT-4自然语言交互ROS-LLMROS2机器人控制
ROS-LLM项目打造了一个使用大语言模型(如GPT-4和ChatGPT)的ROS框架,用于机器人决策和控制。框架易于扩展和集成,只需简单API配置,十分钟内即可完成机器人与ROS-LLM的结合,快速创建互动与控制体验。支持ROS系统,并拥有本地和云端自然语音交互、历史记录保存功能。未来计划增加导航接口和传感器输入接口,以提升机器人导航与环境感知能力。
low_cost_robot - 低成本机器人手臂项目 实现自动化与远程控制
Github开源项目机器人控制3D打印低成本机器人手臂Dynamixel伺服电机机器人学习
这个开源项目提供了一种低成本机器人手臂方案,总成本约250美元。采用Dynamixel XL430和XL330伺服电机,结构轻巧高效。项目还包含一个领导臂设计,可实现远程控制。系统适用于机器人学习和衣物折叠等应用。项目提供完整材料清单、组装指南和模拟环境,方便DIY爱好者和研究人员构建测试这一高性价比机器人系统。
diffusion_policy - 扩散模型驱动的机器人控制算法实现复杂任务执行
Github开源项目计算机视觉强化学习模拟环境机器人控制Diffusion Policy
Diffusion Policy是一种基于扩散模型的机器人控制算法,旨在高效执行复杂任务。该项目提供实验日志、预训练检查点和完整代码库,支持模拟环境和真实机器人的训练与评估。其代码结构便于添加新任务和方法,同时保持灵活性。研究人员可复现实验结果,并将算法应用于多种机器人控制场景。
Eureka - 基于大型语言模型的人类级奖励设计算法
Github开源项目大语言模型强化学习机器人控制Eureka奖励设计
Eureka是一种基于大型语言模型的人类级奖励设计算法,利用GPT-4等先进LLM进行奖励代码的进化优化。在29个开源强化学习环境中,Eureka在83%的任务上超越人类专家,平均提升52%。该算法还实现了无梯度人类反馈强化学习方法,并首次展示了能以人类速度旋转笔的五指Shadow Hand仿真。
StanfordQuadruped - 四足机器人项目进入新阶段 全新版本即将问世
Github开源项目四足机器人机器人控制Stanford QuadrupedPupper v3
StanfordQuadruped项目宣布停止支持Pupper v1,转而开发Pupper v3。新版本将采用400W无刷电机、树莓派5和深度摄像头,并集成强化学习运动策略。该项目此前开发的四足机器人能够奔跑、行走和跳跃,引起广泛关注。尽管停止对旧版支持,项目团队表示Pupper v3将继续保持开源,并计划在未来数月内发布详细构建指南。新版本预计材料成本约1000美元,为爱好者和开发者提供了可负担的高性能四足机器人平台。
avp_teleoperate - Apple Vision Pro远程操控Unitree H1_2人形机器人
Github开源项目机器人控制Apple Vision ProUnitree H1_2遥操作VR技术
该项目实现了Apple Vision Pro远程操控Unitree H1_2人形机器人的功能。通过逆运动学和图像传输技术,实现了双手和双臂的精确控制。项目提供了详细的环境配置指南,涵盖Isaac Gym模拟环境和本地流媒体设置。代码基于TeleVision框架,针对Unitree机器人进行了优化。这一解决方案为人形机器人远程操作开辟了新途径,具有广阔的应用前景。
DexterousHands - 双臂灵巧操作强化学习框架
Github开源项目强化学习机器人控制Bi-DexHands双手操作Isaac Gym
Bi-DexHands是基于Isaac Gym的双手灵巧操作任务集和强化学习算法框架。它提供高效模拟环境,支持多种强化学习方法,包含丰富双手操作任务。单GPU可达40,000+FPS,为研究手部灵巧性和双手协调提供工具。
safe-control-gym - 安全控制与强化学习的物理仿真平台
Github开源项目强化学习机器人控制safe-control-gym仿真环境安全约束
'safe-control-gym'是一个开源的基于物理的仿真平台,为学习控制和强化学习研究提供CartPole和Quadrotor环境。该平台支持符号化先验动力学,实现多种扰动和约束条件,集成了多种控制器和安全过滤器。研究人员可利用此平台测试控制方法的鲁棒性和泛化能力,探索安全学习和控制领域的创新。
walk-these-ways - 四足机器人Go1自主行走控制器训练与部署工具包
Github开源项目强化学习机器人控制Isaac GymGo1Unitree
这是一个开源工具包,用于训练和部署四足机器人Go1的自主行走控制器。工具包基于Isaac Gym模拟器进行强化学习训练,支持多样性行为(MoB)方法以提高控制器泛化能力,并提供将训练策略部署到实体机器人的功能。包含完整的训练、评估和部署流程,以及详细的使用指南。
q-transformer - 自回归Q函数实现离线强化学习
Github开源项目神经网络AI模型强化学习机器人控制Q-Transformer
Q-transformer项目是Google Deepmind提出的可扩展离线强化学习方法的开源实现。该项目通过自回归Q函数优化多动作选择,支持单一和多动作学习,并提供深度对偶架构和n步Q学习。它包含环境交互、数据集创建和学习流程,适用于复杂机器人控制任务。Q-transformer的创新性和灵活性为强化学习研究和应用提供了重要工具。
openvla-7b - 基于视觉和语言的开源机器人动作生成模型
Github开源项目机器学习模型Huggingface机器人控制图像文本处理OpenVLA视觉语言行为模型
OpenVLA-7B是一个开源的视觉-语言-动作模型,基于97万个机器人操作数据训练。该模型将语言指令和摄像机图像转化为机器人动作,支持多种机器人控制,并可通过微调适应新任务。OpenVLA-7B采用MIT许可证,适用于零样本指令执行和新领域迁移。