PyTorch非官方实现QATM:面向深度学习的质量感知模板匹配
arxiv: https://arxiv.org/abs/1903.07254 原始代码(tensorflow+keras):https://github.com/cplusx/QATM Qiita(日语):https://qiita.com/kamata1729/items/11fd55992c740526f6fc
依赖
- torch(1.0.0)
- torchvision(0.2.1)
- cv2
- seaborn
- sklearn
- pathlib
使用方法
或者
python qatm.py -s sample/sample1.jpg -t template --cuda
- 添加
--cuda
选项以使用GPU - 添加
-s
/--sample_image
指定样本图像 在当前实现中只能指定单个样本图像 - 添加
-t
/--template_images_dir
指定模板图像目录
[注意] 如果既未指定 -s
也未指定 -t
,将执行演示程序,等同于:
python qatm.py -s sample/sample1.jpg -t template
- 还可以添加
--thresh_csv
和--alpha
选项
演示结果
template1_1.png
到 template1_4.png
包含在 sample1.jpg
中,但 template1_dummy.png
是一个虚拟图像,不包含在内
template1_1.png | template1_2.png | template1_3.png | template1_4.png | template1_dummy.png |
---|---|---|---|---|