attention-ocr 项目介绍
项目背景
attention-ocr 项目是一种基于视觉注意力机制(Visual Attention)的光学字符识别(OCR)模型,专用于图像识别。该项目附带了一些工具,用于创建TFRecords数据集,并能够将训练好的模型和权重导出为 SavedModel 或冻结图。这一项目的基础模型由 Qi Guo 和 Yuntian Deng 开发,可以在 da03/Attention-OCR 的代码库中找到。
模型结构
模型最开始通过一个滑动的卷积神经网络(CNN)对图像进行处理。在此过程中,图像会被调整为高度为32,并保持宽高比不变。接下来,一个长短时记忆网络(LSTM)会叠加在 CNN 之上。最后,模型会使用注意力机制的解码器来生成最终输出。
安装指南
要使用该项目,只需通过命令行输入以下命令:
pip install aocr
这将自动安装 TensorFlow 和 numpy 作为依赖包。此外,还需要安装的依赖包括 PIL/Pillow、distance 和 six。需注意,当前项目适用于 Tensorflow 1.x 的版本,未来计划升级到 Tensorflow 2。
使用方法
创建数据集
为了构建 TFRecords 数据集,需要准备一个图像合集以及对应的标注文件,该文件包含每张图像的路径和标签。以下是生成数据集的基本命令:
aocr dataset ./datasets/annotations-training.txt ./datasets/training.tfrecords
aocr dataset ./datasets/annotations-testing.txt ./datasets/testing.tfrecords
示例的标注格式如下:
datasets/images/hello.jpg hello
datasets/images/world.jpg world
模型训练
使用以下命令进行模型训练:
aocr train ./datasets/training.tfrecords
新的模型会被创建并开始训练。因同时训练 CNN 和注意力模型,因此整个过程可能需要较长时间才能收敛。--steps-per-checkpoint
参数可以设定保存模型检查点的频率(默认输出目录为 checkpoints/
)。
测试与可视化
在完成训练后,可以测试模型,并可视化注意力结果:
aocr test ./datasets/testing.tfrecords
aocr test --visualize ./datasets/testing.tfrecords
在 results/correct
目录下可以看到一些测试输出的示例图像。
导出模型
训练并保存检查点后,模型可以被导出为冻结图或 SavedModel 格式:
# SavedModel (默认):
aocr export ./exported-model
# Frozen graph:
aocr export --format=frozengraph ./exported-model
导出的模型存储在 ./exported-model
目录下。
模型服务
通过 TensorFlow Serving,可以将导出的 SavedModel 作为 HTTP REST API 提供服务。运行以下命令启动服务器:
tensorflow_model_server --port=9000 --rest_api_port=9001 --model_name=yourmodelname --model_base_path=./exported-model
在这之后,可以通过发送请求获得预测结果。
在 Google Cloud ML Engine 上训练
对于需要在 Google Cloud 机器学习引擎上训练的情况,可以将数据集上传至 Google Cloud 存储桶,然后使用 gcloud
工具启动训练任务。
以上是 attention-ocr 项目的详细介绍,通过这些步骤和指南,用户可以完整地搭建和应用该 OCR 模型进行图像识别任务。模型利用了先进的注意力机制,能够高效地从图像中提取文本信息,具有广泛的应用前景。