Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
weixin_41840029
PaddleOCR
提交
f7758b41
P
PaddleOCR
项目概览
weixin_41840029
/
PaddleOCR
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleOCR
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleOCR
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
f7758b41
编写于
5月 01, 2022
作者:
X
xiaoting
提交者:
GitHub
5月 01, 2022
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update ppocr_introduction.md
上级
3e6b6f49
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
11 addition
and
9 deletion
+11
-9
doc/doc_ch/ppocr_introduction.md
doc/doc_ch/ppocr_introduction.md
+11
-9
未找到文件。
doc/doc_ch/ppocr_introduction.md
浏览文件 @
f7758b41
...
@@ -54,30 +54,32 @@ PP-OCRv3文本检测从网络结构、蒸馏训练策略两个方向做了进一
...
@@ -54,30 +54,32 @@ PP-OCRv3文本检测从网络结构、蒸馏训练策略两个方向做了进一
-
PP-OCRv3 文本识别
-
PP-OCRv3 文本识别
[
SVTR
](
todo:add
link) 证明了强大的单视觉模型即可高效准确完成文本识别任务,在中英文数据上均有优秀的表现。基于SVTR的工作,PP-OCRv3首先验证了SVTR_tiny结构在中文数据上的效果。
[
SVTR
](
todo:add
_
link
)
证明了强大的单视觉模型即可高效准确完成文本识别任务,在中英文数据上均有优秀的表现。基于SVTR的工作,PP-OCRv3首先验证了SVTR_tiny结构在中文数据上的效果。
实验发现SVTR_tiny在中文测试集上acc可以提升10.7%。
实验发现SVTR_tiny在中文测试集上acc可以提升10.7%。
![](
../ppocr_v3/svtr_tiny.jpg
)
<img
src=
"../ppocr_v3/svtr_tiny.jpg"
width=
800
>
非常遗憾,由于 MKLDNN 加速库支持的模型结构有限,SVTR 在CPU+MKLDNN上相比PP-OCRv2慢了10倍。
非常遗憾,由于 MKLDNN 加速库支持的模型结构有限,SVTR 在CPU+MKLDNN上相比PP-OCRv2慢了10倍。
PP-OCRv3 期望提升模型精度的同时不带来额外的推理耗时,以加速预测为目的,分析得到主要耗时部分在Transformer Block,并对 SVTR_tiny 的结构进行了一系列优化:
PP-OCRv3 期望提升模型精度的同时不带来额外的推理耗时,以加速预测为目的,分析得到主要耗时部分在Transformer Block,并对 SVTR_tiny 的结构进行了一系列优化:
1.
将SVTR网络前半部分替换为LCNet的前三个stage,保留4个 SVTR 的 Global attenntion,精度为76%,速度基本不变。
1.
将SVTR网络前半部分替换为LCNet的前三个stage,保留4个 SVTR 的 Global attenntion,精度为76%,速度基本不变。
![](
../ppocr_v3/svtr_g4.png
)
<img
src=
"../ppocr_v3/svtr_g4.png"
width=
800
>
2.
将4个Global attention 减小到2个,精度为72.9%,速度提升3倍。
2.
将4个Global attention 减小到2个,精度为72.9%,速度提升3倍。
![](
../ppocr_v3/svtr_g2.png
)
<img
src=
"../ppocr_v3/svtr_g2.png"
width=
800
>
3.
attention 的预测速度与输入其feature的shape有关,因此移动Global attention至avg_pool后,精度下降为71.9%,速度超越 CNN-base 的PP-OCRv2 27%。
3.
attention 的预测速度与输入其feature的shape有关,因此移动Global attention至avg_pool后,精度下降为71.9%,速度超越 CNN-base 的PP-OCRv2 27%。
![](
../ppocr_v3/ppocr_v3.png
)
<img
src=
"../ppocr_v3/ppocr_v3.png"
width=
800
>
为了提升模型精度同时不引入额外推理成本,PP-OCRv3参考GTC策略,使用Attention监督CTC训练,预测时完全去除Attention模块,在推理阶段不增加任何耗时, 精度提升3.8%。
为了提升模型精度同时不引入额外推理成本,PP-OCRv3参考GTC策略,使用Attention监督CTC训练,预测时完全去除Attention模块,在推理阶段不增加任何耗时, 精度提升3.8%。
![](
../ppocr_v3/GTC.png
)
<img
src=
"../ppocr_v3/GTC.png"
width=
800
>
训练策略方面参考
[
SSL
](
https://github.com/ku21fan/STR-Fewer-Labels
)
设计了文本方向任务,训练了适用于文本识别的预训练模型,加速模型收敛过程,精度提升了0.6%; 使用UDML蒸馏策略,进一步提升精度1.5%。
<img
src=
"../ppocr_v3/SSL.png"
width=
"300"
>
<img
src=
"../ppocr_v3/UDML.png"
width=
"500"
>
训练策略方面参考
[
SSL
](
https://github.com/ku21fan/STR-Fewer-Labels
)
设计了文本方向任务,训练了适用于文本识别的预训练模型,加速模型收敛过程,精度提升了0.6%。使用UDML蒸馏策略,进一步提升精度1.5%。
![](
../ppocr_v3/SSL.png
)
![](
../ppocr_v3/UDML.png
)
数据增强方面基于
[
ConCLR
](
https://www.cse.cuhk.edu.hk/~byu/papers/C139-AAAI2022-ConCLR.pdf
)
中的ConAug方法,设计了 RecConAug 数据增强方法,增强数据多样性,精度提升0.5%,
数据增强方面基于
[
ConCLR
](
https://www.cse.cuhk.edu.hk/~byu/papers/C139-AAAI2022-ConCLR.pdf
)
中的ConAug方法,设计了 RecConAug 数据增强方法,增强数据多样性,精度提升0.5%,
![](
../ppocr_v3/recconaug.png
)
<img
src=
"../ppocr_v3/recconaug.png"
width=
800
>
总体来讲PP-OCRv3识别从网络结构、训练策略、数据增强三个方向做了进一步优化:
总体来讲PP-OCRv3识别从网络结构、训练策略、数据增强三个方向做了进一步优化:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录