DdddOcr 带带弟弟OCR通用验证码离线本地识别SDK免费开源版
DdddOcr 是由本作者与kerlomz共同合作完成的项目。通过大批量生成随机数据后进行深度网络训练,该库并非针对任何特定验证码厂商而制作。使用效果完全靠玄学,可能可以识别,也可能无法识别。
DdddOcr 秉承最简依赖的理念,尽量减少用户的配置和使用成本,希望给每一位测试者带来舒适的体验。
项目地址:点击这里
自营GPT聚合平台:点击这里
[![贡献者][contributors-shield]][contributors-url] [![分支][forks-shield]][forks-url] [![星标][stars-shield]][stars-url] [![问题][issues-shield]][issues-url] [![MIT 许可证][license-shield]][license-url]
一个易于使用的通用验证码识别Python库
探索本项目的文档 »
·
报告Bug
·
一键API服务
·
提出新特性
目录
赞助合作商
赞助合作商 | 推荐理由 | |
---|---|---|
YesCaptcha | 谷歌reCaptcha验证码 / hCaptcha验证码 / funCaptcha验证码商业级识别接口 点击这里 直达VIP4 | |
超级鹰 | 全球领先的智能图片分类及识别商家,安全、准确、高效、稳定、开放,强大的技术及校验团队,支持大并发。7*24小时作业进度管理 | |
Malenia | Malenia企业级代理IP网关平台/代理IP分销软件 | |
雨云VPS | 注册首月5折 | 浙江节点低价大带宽,100M每月30元 |
上手指南
环境支持
系统 | CPU | GPU | 最大支持Python版本 | 备注 |
---|---|---|---|---|
Windows 64位 | √ | √ | 3.12 | 部分版本Windows需要安装VC运行库 |
Windows 32位 | × | × | - | |
Linux 64 / ARM64 | √ | √ | 3.12 | |
Linux 32 | × | × | - | |
macOS X64 | √ | √ | 3.12 | M1/M2/M3...芯片参考#67 |
安装步骤
i. 从PyPI安装
pip install ddddocr
ii. 从源码安装
git clone https://github.com/sml2h3/ddddocr.git
cd ddddocr
python setup.py
请勿直接在ddddocr项目的根目录内直接import ddddocr,请确保你的开发项目目录名称不为ddddocr,这是基础常识。
文件目录说明
例如:
ddddocr
├── MANIFEST.in
├── LICENSE
├── README.md
├── /ddddocr/
│ │── __init__.py 主代码库文件
│ │── common.onnx 新ocr模型
│ │── common_det.onnx 目标检测模型
│ │── common_old.onnx 老ocr模型
│ │── logo.png
│ │── README.md
│ │── requirements.txt
├── logo.png
└── setup.py
iii. 一键启动 一键API服务
项目底层支持
本项目基于dddd_trainer训练所得,训练底层框架为PyTorch,ddddocr推理底层依赖于onnxruntime,因此本项目的最大兼容性与Python版本支持主要取决于onnxruntime。
使用文档
i. 基础OCR识别能力
主要用于识别单行文字,即文字部分占据图片的主体部分,例如常见的英数验证码等。本项目可以识别中文、英文(随机大小写或通过设置结果范围限定大小写)、数字以及部分特殊字符。
# example.py
import ddddocr
ocr = ddddocr.DdddOcr()
image = open("example.jpg", "rb").read()
result = ocr.classification(image)
print(result)
本库内置两套OCR模型,默认情况下不会自动切换,需要在初始化ddddocr时通过参数进行切换
# example.py
import ddddocr
ocr = ddddocr.DdddOcr(beta=True) # 切换为第二套OCR模型
image = open("example.jpg", "rb").read()
result = ocr.classification(image)
print(result)
提示
对于部分透明黑色PNG格式图片的识别支持:classification
方法使用 png_fix
参数,默认为False
ocr.classification(image, png_fix=True)
注意
之前发现很多人喜欢在每次OCR识别时都重新初始化ddddocr,即每次都执行ocr = ddddocr.DdddOcr()
,这是错误的。通常来说只需要初始化一次即可,因为每次初始化和初始化后的第一次识别速度都非常慢。
参考例图 包括但不限于以下图片
[图片1-12]
ii. 目标检测能力
主要用于快速检测出图像中可能的目标主体位置。由于被检测出的目标不一定为文字,所以本功能仅提供目标的边界框位置。(在目标检测中,我们通常使用边界框(bounding box,缩写为bbox)来描述目标位置。边界框是一个矩形框,可以由矩形左上角的x和y坐标与右下角的x和y坐标确定)
如果在使用过程中不需要调用OCR功能,可以在初始化时通过传入参数ocr=False
来关闭OCR功能。开启目标检测需要传入参数det=True
import ddddocr
import cv2
det = ddddocr.DdddOcr(det=True)
with open("test.jpg", 'rb') as f:
image = f.read()
bboxes = det.detection(image)
print(bboxes)
im = cv2.imread("test.jpg")
for bbox in bboxes:
x1, y1, x2, y2 = bbox
im = cv2.rectangle(im, (x1, y1), (x2, y2), color=(0, 0, 255), thickness=2)
cv2.imwrite("result.jpg", im)
参考示例图
包括但不限于以下图片
[图片13-19]
Ⅲ. 滑块检测
本项目的滑块检测功能并非通过AI识别实现,而是使用OpenCV内置算法实现。这可能对于截图用户不太友好。如果在使用过程中不需要调用OCR功能或目标检测功能,可以在初始化时通过传入参数ocr=False
来关闭OCR功能,或det=False
来关闭目标检测功能。
本功能内置两套算法实现,适用于两种不同情况,具体请参考以下说明:
a.算法1
算法1的原理是通过滑块图像的边缘在背景图中计算找到相对应的凹槽位置。可以分别获取滑块图和背景图,滑块图为透明背景图。
滑块图
[图片20]
背景图
[图片21]
det = ddddocr.DdddOcr(det=False, ocr=False)
with open('target.png', 'rb') as f:
target_bytes = f.read()
with open('background.png', 'rb') as f:
background_bytes = f.read()
res = det.slide_match(target_bytes, background_bytes)
print(res)
由于滑块图可能存在透明边框的问题,导致计算结果不一定准确,需要自行估算滑块图透明边框的宽度用于修正得出的边界框。
提示:如果滑块没有过多背景部分,则可以添加simple_target参数,通常为jpg或bmp格式的图片
slide = ddddocr.DdddOcr(det=False, ocr=False)
with open('target.jpg', 'rb') as f:
target_bytes = f.read()
with open('background.jpg', 'rb') as f:
background_bytes = f.read()
res = slide.slide_match(target_bytes, background_bytes, simple_target=True)
print(res)
b.算法2
算法2是通过比较两张图的不同之处来判断滑块目标凹槽的位置。
参考图a,带有目标凹槽阴影的全图
[图片22]
参考图b,全图
[图片23]
slide = ddddocr.DdddOcr(det=False, ocr=False)
with open('bg.jpg', 'rb') as f:
target_bytes = f.read()
with open('fullpage.jpg', 'rb') as f:
background_bytes = f.read()
img = cv2.imread("bg.jpg")
res = slide.slide_comparison(target_bytes, background_bytes)
print(res)
Ⅳ. OCR概率输出
为了提供更灵活的OCR结果控制和范围限定,该项目支持对OCR结果进行范围限定。
可以通过在调用classification
方法时传递参数probability=True
,此时classification
方法将返回完整字符表的概率。
也可以通过set_ranges
方法设置输出字符范围来限定返回的结果。
Ⅰ. set_ranges
方法限定返回字符
本方法接受1个参数,如果输入为int类型则为内置的字符集限制,string类型则为自定义的字符集。
如果为int类型,请参考下表:
参数值 | 含义 |
---|---|
0 | 纯数字0-9 |
1 | 纯小写英文字母a-z |
2 | 纯大写英文字母A-Z |
3 | 小写英文字母a-z + 大写英文字母A-Z |
4 | 小写英文字母a-z + 数字0-9 |
5 | 大写英文字母A-Z + 数字0-9 |
6 | 小写英文字母a-z + 大写英文字母A-Z + 数字0-9 |
7 | 默认字符库 - 小写英文字母a-z - 大写英文字母A-Z - 数字0-9 |
如果为string类型,请传入一段不包含空格的文本,其中的每个字符均为一个待选词。
例如:"0123456789+-x/=""
import ddddocr
ocr = ddddocr.DdddOcr()
image = open("test.jpg", "rb").read()
ocr.set_ranges("0123456789+-x/=")
result = ocr.classification(image, probability=True)
s = ""
for i in result['probability']:
s += result['charsets'][i.index(max(i))]
print(s)
Ⅴ. 自定义OCR训练模型导入
本项目支持导入来自 dddd_trainer 进行自定义训练后的模型,参考导入代码如下:
import ddddocr
ocr = ddddocr.DdddOcr(det=False, ocr=False, import_onnx_path="myproject_0.984375_139_13000_2022-02-26-15-34-13.onnx", charsets_path="charsets.json")
with open('test.jpg', 'rb') as f:
image_bytes = f.read()
res = ocr.classification(image_bytes)
print(res)
版本控制
该项目使用Git进行版本管理。您可以在仓库中查看当前可用版本。
相关推荐文章或项目
...
欢迎更多优秀案例或教程进行投稿,可直接新建issue,标题以【投稿】开头,附上公开教程站点链接。我会根据文章内容选择相对不重复或者有重点内容的进行readme展示,感谢各位朋友~
作者
好友数过多不一定通过,有问题可以在issue进行交流
版权说明
该项目签署了MIT 授权许可,详情请参阅 LICENSE