algorithm_rec_nrtr.md 4.4 KB
Newer Older
T
Topdu 已提交
1 2 3 4 5 6 7 8 9 10
# 场景文本识别算法-NRTR

- [1. 算法简介](#1)
- [2. 环境配置](#2)
- [3. 模型训练、评估、预测](#3)
    - [3.1 训练](#3-1)
    - [3.2 评估](#3-2)
    - [3.3 预测](#3-3)
- [4. 推理部署](#4)
    - [4.1 Python推理](#4-1)
T
Topdu 已提交
11 12 13
    - [4.2 C++推理](#4-2)
    - [4.3 Serving服务化部署](#4-3)
    - [4.4 更多推理部署](#4-4)
T
Topdu 已提交
14 15 16 17 18 19 20 21 22 23 24 25
- [5. FAQ](#5)

<a name="1"></a>
## 1. 算法简介

论文信息:
> [NRTR: A No-Recurrence Sequence-to-Sequence Model For Scene Text Recognition](https://arxiv.org/abs/1806.00926)
> Fenfen Sheng and Zhineng Chen and Bo Xu
> ICDAR, 2019


<a name="model"></a>
T
Topdu 已提交
26
`NRTR`使用MJSynth和SynthText两个文字识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估,算法复现效果如下:
T
Topdu 已提交
27

T
Topdu 已提交
28 29 30
|        | Avg accruacy | 下载链接                                                                           | 配置文件 |
|--------|------------|--------------------------------------------------------------------------------| --- |
| NRTR   | 84.21%     | [训练模型](https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mtb_nrtr_train.tar) |   [config](../../configs/rec/rec_mtb_nrtr.yml)    |
T
Topdu 已提交
31 32 33 34 35 36 37 38 39 40 41 42 43


<a name="2"></a>
## 2. 环境配置
请先参考[《运行环境准备》](./environment.md)配置PaddleOCR运行环境,参考[《项目克隆》](./clone.md)克隆项目代码。


<a name="3"></a>
## 3. 模型训练、评估、预测

<a name="3-1"></a>
### 3.1 模型训练

T
Topdu 已提交
44
请参考[文本识别训练教程](./recognition.md)。PaddleOCR对代码进行了模块化,训练`NRTR`识别模型时需要**更换配置文件**`NRTR`[配置文件](../../configs/rec/rec_mtb_nrtr.yml)
T
Topdu 已提交
45 46 47

#### 启动训练

T
Topdu 已提交
48 49 50 51 52 53 54 55 56

具体地,在完成数据准备后,便可以启动训练,训练命令如下:
```shell
#单卡训练(训练周期长,不建议)
python3 tools/train.py -c configs/rec/rec_mtb_nrtr.yml

#多卡训练,通过--gpus参数指定卡号
python3 -m paddle.distributed.launch --gpus '0,1,2,3'  tools/train.py -c configs/rec/rec_mtb_nrtr.yml
```
T
Topdu 已提交
57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73

<a name="3-2"></a>
### 3.2 评估

可下载已训练完成的[模型文件](#model),使用如下命令进行评估:

```shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/eval.py -c configs/rec/rec_mtb_nrtr.yml -o Global.pretrained_model=./rec_mtb_nrtr_train/best_accuracy
```

<a name="3-3"></a>
### 3.3 预测

使用如下命令进行单张图片预测:
```shell
# 注意将pretrained_model的路径设置为本地路径。
T
Topdu 已提交
74
python3 tools/infer_rec.py -c configs/rec/rec_mtb_nrtr.yml -o Global.infer_img='./doc/imgs_words_en/word_10.png' Global.pretrained_model=./rec_mtb_nrtr_train/best_accuracy
T
Topdu 已提交
75 76 77 78 79 80 81 82 83
# 预测文件夹下所有图像时,可修改infer_img为文件夹,如 Global.infer_img='./doc/imgs_words_en/'。
```


<a name="4"></a>
## 4. 推理部署

<a name="4-1"></a>
### 4.1 Python推理
T
Topdu 已提交
84
首先将训练得到best模型,转换成inference model。这里以训练完成的模型为例([模型下载地址](https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mtb_nrtr_train.tar) ),可以使用如下命令进行转换:
T
Topdu 已提交
85 86 87

```shell
# 注意将pretrained_model的路径设置为本地路径。
T
Topdu 已提交
88
python3 tools/export_model.py -c configs/rec/rec_mtb_nrtr.yml -o Global.pretrained_model=./rec_mtb_nrtr_train/best_accuracy Global.save_inference_dir=./inference/rec_mtb_nrtr/
T
Topdu 已提交
89 90 91 92 93 94 95 96
```

执行如下命令进行模型推理:

```shell
python3 tools/infer/predict_rec.py --image_dir='./doc/imgs_words_en/word_10.png' --rec_model_dir='./inference/rec_mtb_nrtr/' --rec_algorithm='NRTR' --rec_image_shape='1,32,100' --rec_char_dict_path='./ppocr/utils/EN_symbol_dict.txt'
# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。
```
T
Topdu 已提交
97 98 99 100

<a name="4-2"></a>
### 4.2 C++推理部署

T
topduke 已提交
101
由于C++预处理后处理还未支持NRTR,所以暂未支持
T
Topdu 已提交
102 103 104 105 106 107 108 109 110 111 112

<a name="4-3"></a>
### 4.3 Serving服务化部署

暂不支持

<a name="4-4"></a>
### 4.4 更多推理部署

暂不支持

T
Topdu 已提交
113 114 115 116
<a name="5"></a>
## 5. FAQ

1. `NRTR`论文中使用Beam搜索进行解码字符,但是速度较慢,这里默认未使用Beam搜索,以贪婪搜索进行解码字符。
T
Topdu 已提交
117 118 119 120 121 122 123 124 125 126 127 128 129

## 引用

```bibtex
@article{Sheng2019NRTR,
  author    = {Fenfen Sheng and Zhineng Chen andBo Xu},
  title     = {NRTR: A No-Recurrence Sequence-to-Sequence Model For Scene Text Recognition},
  journal   = {ICDAR},
  year      = {2019},
  url       = {http://arxiv.org/abs/1806.00926},
  pages     = {781-786}
}
```