使用 tensorflow 做验证码识别
使用 python 的 captcha package 生成测试数据
图片大小为 60 * 100 (width * height)
$ python gen_captcha.py
generating 1000 captchas in images/one-char/train
generating 200 captchas in images/one-char/test
也可以自定义数据规模, 比如:10000 组训练数据,30% 比例的测试数据。
$ python gen_captcha.py -n 10000 -t 0.3
生成测试数据, 10000 组
$ python gen_captcha.py -n 10000
generating 10000 captchas in images/one-char/train
generating 2000 captchas in images/one-char/test
训练
$ time python simple_softmax.py
data loaded. train images: 10000. test images: 2000
...
step = 9100, accuracy = 91.10%
step = 9200, accuracy = 91.40%
step = 9300, accuracy = 92.00%
step = 9400, accuracy = 91.40%
step = 9500, accuracy = 91.35%
step = 9600, accuracy = 90.80%
step = 9700, accuracy = 91.60%
step = 9800, accuracy = 91.65%
step = 9900, accuracy = 90.50%
testing accuracy = 91.05%
real2m46.478s
user2m29.704s
sys0m17.828s
另外一次运行的输出
step = 9100, accuracy = 91.19%
step = 9200, accuracy = 90.76%
step = 9300, accuracy = 91.76%
step = 9400, accuracy = 90.39%
step = 9500, accuracy = 64.87%
step = 9600, accuracy = 88.35%
step = 9700, accuracy = 90.64%
step = 9800, accuracy = 91.94%
step = 9900, accuracy = 81.67%
testing accuracy = 91.35%
real2m463m29.769s
user2m293m8.040s
sys0m170m23.968s
不仅慢了,而且 accuracy 浮动很大。
基本的原理:
tensorflow 执行时,写 log 文件, tensorboard 解析 log 并做数据可视化。
定义 graph 的时候, 用 tf.summary 定义需要写入日志的变量值和格式。
代码:softmax_with_log.py
$ python softmax_with_log.py
在另外 1 个 terminal 中执行
$ tensorboard --logdir=log
浏览器中打开 http:https://127.0.0.1:6006/
作为对比,在 mnist 数据集上,跑出了 98%+ 的正确率。
在验证码的数据集上,基本在 10% 左右 -- 恰好等于随机蒙的概率。
同样 1 个数据集,softmax 正确率 90%, 加了 CNN 却降到了 10% -- 随机蒙的概率。 2 者的数据集相同,不会是数据源的问题。
mnist tutorial 里的 convolutional.py 模型,正确率 98%, 数据源换成验证码以后,也是 10%。 模型相同,不是我的低级编码错误导致。
再看一遍数据源和模型
前面的 2 个卷积层,成功的把 feature 全部过滤掉了,留下来的都是噪声的小圆点。
灰度图里,这些小圆点,颜色比信息要深一些。 模型的 pooling 是 max,激活是 ReLU,正好提取了小圆点。 导致最后一层全链接学习不到正确的参数。
人工智能里的 Bug 也更加智能了
所以,是不是可以搞一个验证码生成与识别的 AI 对抗。
把纯数字的改成了英文+数字混合( 36 labels ),训练了两个小时,正确率收敛在 80% 左右。
调参以后的 accuracy 与 loss 曲线