add dataset

This commit is contained in:
xxxxxx
2019-05-28 23:55:56 +08:00
parent aa1c91780a
commit b457a2bf87
8 changed files with 3865 additions and 21 deletions

View File

@@ -7,10 +7,10 @@
在开始之前先介绍一下本项目所采用的数据信息。我们的数据全部来自于CASIA的开源中文手写字数据集该数据集分为两部分
- CASIA-HWDB新版本的HWDB我们仅仅使用1.0-1.2这是单字的数据集2.0-2.2是整张文本的数据集我们暂时不用单字里面包含了约7185个汉字以及171个英文字母、数字、标点符号等
- CASIA-OLHWDB老版本的HWDB格式一样包含了约7185个汉字以及171个英文字母、数字、标点符号等。
- CASIA-HWDB离线的HWDB我们仅仅使用1.0-1.2这是单字的数据集2.0-2.2是整张文本的数据集我们暂时不用单字里面包含了约7185个汉字以及171个英文字母、数字、标点符号等
- CASIA-OLHWDB在线的HWDB格式一样包含了约7185个汉字以及171个英文字母、数字、标点符号等,我们不用
原始数据下载链接点击[这里](http://www.nlpr.ia.ac.cn/databases/handwriting/Offline_database.html).
其实你下载1.0的train和test差不多已经够了可以直接运行 `dataset/get_hwdb_1.0_1.1.sh` 下载。原始数据下载链接点击[这里](http://www.nlpr.ia.ac.cn/databases/handwriting/Offline_database.html).
由于原始数据过于复杂我们自己写了一个数据wrapper方便读取统一将其转换为类似于Dataframe (Pandas)的格式这样可以将一个字的特征和label方便的显示也可以十分方便的将手写字转换为图片采用CNN进行处理。这是我们展示的效果
<p align="center">
@@ -23,6 +23,12 @@
['!', '"', '#', '$', '%', '&', '(', ')', '*', '+', ',', '-', '.', '/', '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', ':', ';', '<', '=', '>', '?', '@', 'A', 'B', 'C', 'D', 'E', 'F', 'G', 'H', 'I', 'J', 'K', 'L', 'M', 'N', 'O', 'P', 'Q', 'R', 'S', 'T', 'U', 'V', 'W', 'X', 'Y', 'Z', '[', '\\', ']', '^', '`', 'a', 'b', 'c', 'd', 'e', 'f', 'g', 'h', 'i', 'j', 'k', 'l', 'm', 'n', 'o', 'p', 'q', 'r', 's', 't', 'u', 'v', 'w', 'x', 'y', 'z', '{', '|', '}', '~', '、', '。', '々', '…', '', '', '“', '”']
```
关于数据的处理部分,从服务器下载到的原始数据是 `trn_gnt.zip` 解压之后是 `gnt.alz` 需要再次解压得到一个包含 gnt文件的文件夹。里面每一个gnt文件都包含了若干个汉字及其标注。直接处理比较麻烦也不方便抽取出图片再进行操作**虽然转为图片存入文件夹比较直观,但是不适合批量读取和训练**, 后面我们统一转为tfrecord进行训练。
**更新**:
实际上由于单个汉字图片其实很小差不多也就最大80x80的大小这个大小不适合转成图片保存到本地因此我们将hwdb原始的二进制保存为tfrecord。同时也方便后面训练可以直接从tfrecord读取图片进行训练。
## Model
关于我们采用的OCR模型的构建我们大致采用的是比较先进的MobileNetV3架构同时设计了一个修改的过的MobileNetV3Big的更深网络。主要考虑模型的轻量型和表达能力。最终训练结果表明我们的模型可以在中文手写字上达到约99.8%的准确率。