热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#视觉语言行为模型
openvla-7b - 基于视觉和语言的开源机器人动作生成模型
Github
开源项目
机器学习
模型
Huggingface
机器人控制
图像文本处理
OpenVLA
视觉语言行为模型
OpenVLA-7B是一个开源的视觉-语言-动作模型,基于97万个机器人操作数据训练。该模型将语言指令和摄像机图像转化为机器人动作,支持多种机器人控制,并可通过微调适应新任务。OpenVLA-7B采用MIT许可证,适用于零样本指令执行和新领域迁移。
1
1
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号