Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleOCR
提交
b0e18544
P
PaddleOCR
项目概览
PaddlePaddle
/
PaddleOCR
1 年多 前同步成功
通知
1534
Star
32963
Fork
6643
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
108
列表
看板
标记
里程碑
合并请求
7
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleOCR
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
108
Issue
108
列表
看板
标记
里程碑
合并请求
7
合并请求
7
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
b0e18544
编写于
4月 28, 2022
作者:
T
Topdu
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add svtr and nrtr docs
上级
9974b81a
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
208 addition
and
0 deletion
+208
-0
doc/doc_ch/algorithm_rec_nrtr.md
doc/doc_ch/algorithm_rec_nrtr.md
+91
-0
doc/doc_ch/algorithm_rec_svtr.md
doc/doc_ch/algorithm_rec_svtr.md
+117
-0
未找到文件。
doc/doc_ch/algorithm_rec_nrtr.md
0 → 100644
浏览文件 @
b0e18544
# 场景文本识别算法-NRTR
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [NRTR: A No-Recurrence Sequence-to-Sequence Model For Scene Text Recognition](https://arxiv.org/abs/1806.00926)
> Fenfen Sheng and Zhineng Chen and Bo Xu
> ICDAR, 2019
<a
name=
"model"
></a>
`NRTR`
在场景文本识别公开数据集上的精度和模型文件如下:
| | Avg accruacy | 下载链接 | 配置文件 |
|-----| --- | --- | --- |
| NRTR | 84.21% |
[
训练模型
](
https://paddleocr.bj.bcebos.com/dygraph_v2.0/en/rec_mtb_nrtr_train.tar
)
|
[
config
](
../../configs/rec/rec_mtb_nrtr.yml
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
<a
name=
"3-1"
></a>
### 3.1 模型训练
#### 数据集准备
数据集采用
[
DTRB
](
https://arxiv.org/abs/1904.01906
)
文字识别训练和评估流程,使用
`MJSynth`
和
`SynthText`
两个识别数据集训练,在IIIT, SVT, IC03, IC13, IC15, SVTP, CUTE数据集上进行评估。
#### 启动训练
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练
`NRTR`
识别模型时需要
**更换配置文件**
为
`NRTR`
的
[
配置文件
](
../../configs/rec/rec_mtb_nrtr.yml
)
。
<a
name=
"3-2"
></a>
### 3.2 评估
可下载已训练完成的
[
模型文件
](
#model
)
,使用如下命令进行评估:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/eval.py
-c
configs/rec/rec_mtb_nrtr.yml
-o
Global.pretrained_model
=
./rec_mtb_nrtr_train/best_accuracy
```
<a
name=
"3-3"
></a>
### 3.3 预测
使用如下命令进行单张图片预测:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/infer_rec.py
-c
configs/rec/rec_mtb_nrtr.yml
-o
Global.infer_img
=
'./doc/imgs_words_en/word_10.png'
Global.pretrained_model
=
./rec_mtb_nrtr_train/best_accuracy Global.load_static_weights
=
false
# 预测文件夹下所有图像时,可修改infer_img为文件夹,如 Global.infer_img='./doc/imgs_words_en/'。
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将训练得到best模型,转换成inference model。这里以训练完成的模型为例(
[
模型下载地址
](
#model
)
),可以使用如下命令进行转换:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/export_model.py
-c
configs/rec/rec_mtb_nrtr.yml
-o
Global.pretrained_model
=
./rec_mtb_nrtr_train/best_accuracy Global.save_inference_dir
=
./inference/rec_mtb_nrtr/ Global.load_static_weights
=
False
```
执行如下命令进行模型推理:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
'./doc/imgs_words_en/word_10.png'
--rec_model_dir
=
'./inference/rec_mtb_nrtr/'
--rec_algorithm
=
'NRTR'
--rec_image_shape
=
'1,32,100'
--rec_char_dict_path
=
'./ppocr/utils/EN_symbol_dict.txt'
# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。
```
<a
name=
"5"
></a>
## 5. FAQ
1.
`NRTR`
论文中使用Beam搜索进行解码字符,但是速度较慢,这里默认未使用Beam搜索,以贪婪搜索进行解码字符。
doc/doc_ch/algorithm_rec_svtr.md
0 → 100644
浏览文件 @
b0e18544
# 场景文本识别算法-SVTR
-
[
1. 算法简介
](
#1
)
-
[
2. 环境配置
](
#2
)
-
[
3. 模型训练、评估、预测
](
#3
)
-
[
3.1 训练
](
#3-1
)
-
[
3.2 评估
](
#3-2
)
-
[
3.3 预测
](
#3-3
)
-
[
4. 推理部署
](
#4
)
-
[
4.1 Python推理
](
#4-1
)
-
[
5. FAQ
](
#5
)
<a
name=
"1"
></a>
## 1. 算法简介
论文信息:
> [SVTR: Scene Text Recognition with a Single Visual Model]()
> Yongkun Du and Zhineng Chen and Caiyan Jia Xiaoting Yin and Tianlun Zheng and Chenxia Li and Yuning Du and Yu-Gang Jiang
> IJCAI, 2022
场景文本识别旨在将自然图像中的文本转录为数字字符序列,从而传达对场景理解至关重要的高级语义。这项任务由于文本变形、字体、遮挡、杂乱背景等方面的变化具有一定的挑战性。先前的方法为提高识别精度做出了许多工作。然而文本识别器除了准确度外,还因为实际需求需要考虑推理速度等因素。
### SVTR算法简介
主流的场景文本识别模型通常包含两个模块:用于特征提取的视觉模型和用于文本转录的序列模型。这种架构虽然准确,但复杂且效率较低,限制了在实际场景中的应用。SVTR提出了一种用于场景文本识别的单视觉模型,该模型在patch-wise image tokenization框架内,完全摒弃了序列建模,在精度具有竞争力的前提下,模型参数量更少,速度更快,主要有以下几点贡献:
1.
首次发现单视觉模型可以达到与视觉语言模型相媲美甚至更高的准确率,并且其具有效率高和适应多语言的优点,在实际应用中很有前景。
2.
SVTR从字符组件的角度出发,逐渐的合并字符组件,自下而上地完成字符的识别。
3.
SVTR引入了局部和全局Mixing,分别用于提取字符组件特征和字符间依赖关系,与多尺度的特征一起,形成多粒度特征描述。
<a
name=
"model"
></a>
`SVTR`
在场景文本识别公开数据集上的精度(%)和模型文件如下:
| SVTR |IC13
<br/>
857 | SVT |IIIT5k
<br/>
3000 |IC15
<br/>
1811| SVTP |CUTE80 | Avg_6 |IC15
<br/>
2077 |IC13
<br/>
1015 |IC03
<br/>
867|IC03
<br/>
860|Avg_10 |Chinese| 英文
<br/>
链接 | 中文
<br/>
链接 |
|:-----:|:------:|:-----:|:---------:|:------:|:-----:|:-----:|:-----:|:-------:|:-------:|:-----:|:-----:|:-----:|:-----:|:---------:|:---------:|
| Large | 97.20 | 91.65 | 96.30 | 86.58 | 88.37 | 95.14 | 92.82 | 84.54 | 96.35 | 96.54 | 96.74 | 92.24 | 72.10 |
[
模型&配置
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_svtr_large_en_train/.tar
)
|
[
模型&配置
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_svtr_large_ch_train/.tar
)
|
| Base | 97.08 | 91.50 | 96.03 | 85.20 | 89.92 | 91.67 | 92.33 | 83.73 | 95.66 | 95.62 | 95.81 | 91.61 | 71.40 |
[
模型&配置
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_r31_sar_train.tar
)
|
[
TODO
](
)
|
| Small | 95.92 | 93.04 | 95.03 | 84.70 | 87.91 | 92.01 | 91.63 | 82.72 | 94.88 | 96.08 | 96.28 | 91.02 | 69.00 |
[
模型&配置
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_svtr_small_en_train/.tar
)
|
[
模型&配置
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_svtr_small_ch_train/.tar
)
|
| Tiny | 96.85 | 91.34 | 94.53 | 83.99 | 85.43 | 89.24 | 90.87 | 80.55 | 95.37 | 95.27 | 95.70 | 90.13 | 67.90 |
[
模型&配置
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_svtr_tiny_en_train/.tar
)
|
[
模型&配置
](
https://paddleocr.bj.bcebos.com/dygraph_v2.1/rec/rec_svtr_tiny_ch_train/.tar
)
|
<a
name=
"2"
></a>
## 2. 环境配置
请先参考
[
《运行环境准备》
](
./environment.md
)
配置PaddleOCR运行环境,参考
[
《项目克隆》
](
./clone.md
)
克隆项目代码。
<a
name=
"3"
></a>
## 3. 模型训练、评估、预测
<a
name=
"3-1"
></a>
### 3.1 模型训练
#### 数据集准备
[
英文数据集下载
](
https://github.com/clovaai/deep-text-recognition-benchmark#download-lmdb-dataset-for-traininig-and-evaluation-from-here
)
[
中文数据集下载
](
https://github.com/fudanvi/benchmarking-chinese-text-recognition#download
)
**注意:**
1.
训练
`SVTR`
时,需将将配置文件中的测试数据集路径设置为本地的评估数据集路径,例如将中文的
`scene_test`
数据集修改为
`scene_val`
。
2.
训练
`SVTR`
时,需将配置文件中的
`SVTRLableDecode`
修改为
`CTCLabelDecode`
,将
`SVTRRecResizeImg`
修改为
`RecResizeImg`
。
#### 启动训练
请参考
[
文本识别训练教程
](
./recognition.md
)
。PaddleOCR对代码进行了模块化,训练
`SVTR`
识别模型时需要
**更换配置文件**
为
`SVTR`
的
[
配置文件
](
../../configs/rec/rec_svtrnet.yml
)
。
<a
name=
"3-2"
></a>
### 3.2 评估
可下载
`SVTR`
提供模型文件和配置文件
[
模型下载
](
#model
)
,以
`SVTR-T`
为例,使用如下命令进行评估:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/eval.py
-c
./rec_svtr_tiny_en_train/rec_svtr_tiny_6local_6global_stn_en.yml
-o
Global.pretrained_model
=
./rec_svtr_tiny_en_train/best_accuracy
# 测试中文数据集时,需将`scene_val`数据集修改为`scene_test`,才能得到论文中的结果。
```
<a
name=
"3-3"
></a>
### 3.3 预测
使用如下命令进行单张图片预测:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/infer_rec.py
-c
./rec_svtr_tiny_en_train/rec_svtr_tiny_6local_6global_stn_en.yml
-o
Global.infer_img
=
'./doc/imgs_words_en/word_10.png'
Global.pretrained_model
=
./rec_svtr_tiny_en_train/best_accuracy Global.load_static_weights
=
false
# 预测文件夹下所有图像时,可修改infer_img为文件夹,如 Global.infer_img='./doc/imgs_words_en/'。
```
<a
name=
"4"
></a>
## 4. 推理部署
<a
name=
"4-1"
></a>
### 4.1 Python推理
首先将训练得到best模型,转换成inference model。下面以基于
`SVTR-T`
,在英文数据集训练的模型为例(
[
模型下载地址
](
#model
)
),可以使用如下命令进行转换:
```
shell
# 注意将pretrained_model的路径设置为本地路径。
python3 tools/export_model.py
-c
./rec_svtr_tiny_en_train/rec_svtr_tiny_6local_6global_stn_en.yml
-o
Global.pretrained_model
=
./rec_svtr_tiny_en_train/best_accuracy Global.save_inference_dir
=
./inference/rec_svtr_tiny_stn_en/ Global.load_static_weights
=
False
```
执行如下命令进行模型推理:
```
shell
python3 tools/infer/predict_rec.py
--image_dir
=
'./doc/imgs_words_en/word_10.png'
--rec_model_dir
=
'./inference/rec_svtr_tiny_stn_en/'
--rec_algorithm
=
'SVTR'
--rec_image_shape
=
'3,64,256'
--rec_char_dict_path
=
'./ppocr/utils/ic15_dict.txt'
# 预测文件夹下所有图像时,可修改image_dir为文件夹,如 --image_dir='./doc/imgs_words_en/'。
```
结果如下:
```
shell
grep
: warning: GREP_OPTIONS is deprecated
;
please use an
alias
or script
grep
: warning: GREP_OPTIONS is deprecated
;
please use an
alias
or script
[
2022/04/26 10:11:01] ppocr INFO: Predicts of ./doc/imgs_words_en/word_10.png:
(
'pain'
, 0.9999998807907104
)
```
<a
name=
"5"
></a>
## 5. FAQ
1.
由于
`SVTR`
使用的op算子大多为矩阵相乘,在GPU环境下,速度具有优势,但在CPU开启mkldnn加速环境下,
`SVTR`
相比于被优化的卷积网络没有优势。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录