项目介绍:model-vs-human
model-vs-human
是一个用于评估人类视觉和机器视觉差距的Python工具箱。利用这个库,开发者可以在17个出乎意料的数据集上测试其机器学习模型,并与高质量的人类比较数据进行对比。该工具箱支持PyTorch和TensorFlow两大主流框架的模型。
基准测试
在基准测试部分,项目列出了表现最接近人类行为的前十个模型及其在不同数据集上的表现差异。这些模型的排名基于对52个测试模型的全面评估得出。若开发者的新模型表现超过列表中的一些或全部模型,可通过提交请求来加入榜单。
其中,在“最类似人类行为”的测试中,ViT-22B-384模型名列第一,其在多项指标上表现优异如准确性差异和一致性。相反,标准的ResNet-50模型在榜单中名列底部。
而在“最高出乎分布(OOD)变形鲁棒性”的指标中,ViT-22B-224模型同样位居榜首。
安装指南
项目的安装相对简单,使用Python3.8克隆项目至本地后,通过命令行设置项目路径并使用pip
安装即可。安装后,任何代码上的更改会直接反映在包中,方便进行模型的添加或修改。
用户体验
用户只需编辑examples/evaluate.py
文件,就可以对一系列模型进行出乎分布数据集的测试,生成相应的图表。最终,这些图表可以编译成一个报告文件,方便查看和分析结果。
模型库
项目目前实现了多种不同类型的模型,包括20多个来自torchvision模型库的标准监督模型、5个自监督对比模型、3个SimCLR模型变体以及10个对抗性“鲁棒”模型等。用户可通过简单的代码加载这些模型,并利用工具箱提供的通用数据集进行测试。
对于加载特定模型,用户可选择PyTorch或TensorFlow两种框架,库也提供了方便的接口来列出所有可用模型。
数据集
项目提供了17个在严格实验室条件下收集的人类比较数据的数据集。十二个数据集涉及参数化或二进制图像畸变,如色彩/灰度,对比度,模糊等。其余五个数据集则包括非参数化图像处理,如素描,边缘检测,轮廓等。
用户可以直接通过脚本调用这些数据集进行测试,首次使用时会自动下载所需数据。
致谢
项目的心理物理数据主要来自于Wichmann实验室,并且使用了多种现有数据集资源。感谢所有提供模型和数据集的作者和维护人员。
引用
如果在研究中需要引用此项目,请使用以下格式:
@inproceedings{geirhos2021partial,
title={Partial success in closing the gap between human and machine vision},
author={Geirhos, Robert and Narayanappa, Kantharaju and Mitzkus, Benjamin and Thieringer, Tizian and Bethge, Matthias and Wichmann, Felix A and Brendel, Wieland},
booktitle={{Advances in Neural Information Processing Systems 34}},
year={2021},
}