👀 Bananalyzer:为AI代理网络任务评估而生的开源框架
在人工智能快速发展的今天,如何准确评估AI代理在网络任务中的表现成为了一个重要问题。Bananalyzer应运而生,它是一个专为网络任务设计的开源AI代理评估框架和数据集。这个项目不仅解决了网站变化、延迟和反机器人保护等问题,还为AI代理的评估提供了一个标准化和可靠的方法。让我们一起深入了解这个有趣而实用的项目。
🍌 为什么选择Bananalyzer?
Bananalyzer的创建者们有着充分的理由来开发这个独特的评估框架:
- 网站的动态性:网页内容经常变化,受网络延迟影响,还可能有反机器人保护。
- 历史快照需求:需要一个可靠的系统来保存和部署网站的历史/静态快照。
- 网页结构多样性:标准的网页实践松散,同一个网站可能有多种不同的底层表示方式。为了让代理能够更好地泛化,需要建立一个跨行业和用例的多样化网站数据集。
- 特定评估标准:有针对网站间结构化和直接信息检索的特定评估标准和代理用例。
- 整合现有资源:已经存在一些有价值的网络任务数据集和评估(Mind2Web, WebArena等),希望将它们统一到一个仓库中。
🛠️ Bananalyzer如何工作?
Bananalyzer是一个命令行工具,它针对一组示例网站运行一系列评估。这些示例在examples.json文件中定义,使用了类似于Mind2Web和WebArena的模式。示例存储了代理目标和预期代理输出等元数据,以及通过mhtml保存的URL快照,确保页面内容不会随时间变化。
这个CLI工具会通过动态构建一个pytest测试套件并执行它,来顺序运行用户定义的代理的示例。作为用户,你只需创建一个实现AgentRunner
接口的文件,并在名为"agent"的变量中定义AgentRunner的实例。AgentRunner暴露了示例和一个playwright浏览器上下文供使用。
📊 测试意图和类型
Bananalyzer定义了一组页面类型和测试意图,用于评估代理。这些类型在schemas.py文件的ExampleType
枚举中定义:
- listing: 示例从列表页开始,但必须抓取所有详情页链接和这些详情页的信息。
- detail: 示例从详情页开始,代理必须从页面检索特定的JSON信息。这是最常见的测试类型。
- listing_detail: 代理在列表页上,必须从当前页面抓取所有信息。所有所需信息都在当前页面上可用。
此外,还有一些特定的tags
可以用来进一步筛选测试意图,如pagination标签表示必须跨页面获取数据。
🚀 如何开始使用Bananalyzer?
要开始使用Bananalyzer进行本地测试,请按照以下步骤操作:
-
安装Bananalyzer:
pip install --dev bananalyzer
-
实现
agent_runner.py
接口并创建一个banalyzer.py测试文件。以下是一个示例文件:import asyncio from playwright.async_api import BrowserContext from bananalyzer.data.schemas import Example from bananalyzer.runner.agent_runner import AgentResult, AgentRunner class NullAgentRunner(AgentRunner): """ A test agent class that just returns an empty string """ async def run( self, context: BrowserContext, example: Example, ) -> AgentResult: page = await context.new_page() await page.goto( example.get_static_url()) # example.url has the real url, example.get_static_url() returns the local mhtml file url await asyncio.sleep(0.5) return example.evals[0].expected # Just return expected output directly so that tests pass
-
运行测试套件:
bananalyze ./tests/banalyzer.py
-
你也可以运行
bananalyze .
来运行当前目录中的所有测试。 -
在MacOS上运行本地示例时,请运行
unix2dos static/*/*.mhtml
以转换MHTML文件中的CRLF格式。
🛣️ Bananalyzer的未来发展
Bananalyzer的开发团队已经制定了一个雄心勃勃的路线图,包括以下几个方面:
-
功能增强:
- 添加按意图过滤测试的CLI参数
- 增加选择特定测试或测试类别的CLI参数
- 支持在示例中添加多个网站页面
- 支持在示例中添加页内操作
- 翻译WebArena和Mind2Web评估
- 模拟延迟和机器人检测
- 更新测试可视化,分离类别和输出
-
数据集更新:
- 添加15个额外的数据检索示例
- 添加15个额外的链接示例
- 添加15个点击示例
- 添加15个导航示例
- 需要多步导航的测试
- 需要导航和数据检索的测试
- 需要关闭弹窗的测试
- 需要登录的测试
- 需要验证码解决的测试
这些计划显示了Bananalyzer团队对于不断改进和扩展项目功能的承诺,以满足AI代理评估领域日益增长的需求。
🤝 如何贡献
Bananalyzer是一个开源项目,欢迎社区贡献。如果你想要参与,可以考虑以下方式:
-
运行服务器: 项目有一个基本的FastAPI服务器来暴露示例数据。你可以使用以下命令运行它:
cd server poetry run uvicorn server:app --reload
然后在浏览器中访问
http://127.0.0.1:8000/api/docs
查看API文档。 -
添加示例: 所有当前的示例都是通过运行项目根目录的
fetch.ipynb
笔记本手动添加的。这个笔记本将使用Playwright加载网站,并使用Chrome开发者API将页面保存为MHTML文件。 -
提交代码: 你可以fork项目,进行改进,然后提交pull request。
-
报告问题: 如果你发现了bug或有改进建议,可以在GitHub上提交issue。
-
文档贡献: 帮助改进项目文档,使其更加清晰和全面。
🌟 结语
Bananalyzer为AI代理在网络任务中的评估提供了一个强大而灵活的框架。通过解决网站变化、延迟和反机器人保护等问题,它为研究人员和开发者提供了一个可靠的工具,以评估和改进他们的AI代理。
随着项目的不断发展,我们可以期待看到更多的功能和改进。无论你是AI研究者、开发者,还是对网络任务自动化感兴趣的爱好者,Bananalyzer都值得你去探索和尝试。
加入Bananalyzer社区,一起推动AI代理评估的发展吧!
让我们一起,为AI代理的未来贡献一份力量! 🚀🍌