前几天智谱AI发布了AutoGLM,让很多人直呼“王炸”、“头皮发麻”。
AutoGLM实际上是AI在手机上通过指令帮我们完成一系列操作,比如点外卖、订酒店、订机票等等。
最牛的其实不是完成了任务,因为这不是通过软件之间的接口对接实现的,而是直接模拟人点击操作了手机。
但这种操作,依我来看,也仅限于安卓。苹果是不可能给软件开这么高的权限,顶多是开个接口,会让用户实现这部分有接口的功能,但是朋友圈点赞评论暂时是想都别想了。
微软这几天开源的OmniParser有点意思,基于纯视觉的 GUI 代理的屏幕解析工具。
简单来说就是让AI分析屏幕,理解每一个按钮是操作什么功能的。
OmniParser是GUI中非常关键的一部分,只是理解了页面,如果再加上自动化,才是真正的实现GUI。
项目简介
OmniParser是一种全新的视觉解析工具,专为提升跨多个操作系统和应用程序的界面操作自动化而设计。该项目通过结构化解析用户界面截图,极大地增强了大型视觉语言模型GPT-4V的性能,使其能够更准确地在用户界面上定位和执行操作。
OmniParser整合了多个细化的模型,包括交互图标检测和图标功能描述,有效地识别和理解界面中的可交互元素。在没有额外输入信息的情况下,仅凭截图输入就显著超越了传统基线模型。
主要功能
1.可靠地识别用户界面内的可交互图标:
OMNIPARSER利用先进的视觉检测模型,从用户界面的截图中精确定位可交互元素(如按钮、图标、输入框等)。它能够自动识别并标注这些元素的位置和边界,确保系统可以准确了解哪些区域是可以进行操作的,从而为后续的自动化交互提供基础。
2.理解屏幕截图中各种元素的语义,并准确地将预期操作与屏幕上的相应区域关联起来:
OMNIPARSER不仅识别元素的视觉信息,还通过语义解析模型理解每个元素的功能和用途。它将这些语义信息与视觉检测结果相结合,准确关联预期操作和屏幕中的具体区域,从而提升自动化系统在执行任务时的准确性和有效性。
DEMO
1.OmniParser解析后的截图图像和本地语义示例。OmniParser的输入包括用户任务和UI截图,输出为:1)包含覆盖有边界框和编号的解析后截图图像,2)包含提取的文本和图标描述的本地语义信息。
2.可交互区域检测数据集示例。边界框基于从网页的DOM树中提取的可交互区域。
用途
简单了想了下,用途还真的挺多的。跨平台的自动化操作、智能辅助工具、无障碍辅助技术、自动化软件测试、企业工作流自动化、网页数据采集和个性化用户体验优化。
当然,开发者们的智慧肯定不止于此。再结合起来实际的一些需求,只讲一个实用案例,其他的你们可以在评论区聊聊。
“网络水军越来越智能,价格还被打下来了”。
项目链接
https://www.dongaigc.com/p/microsoft/OmniParser?a=omniparser