Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
weixin_41840029
PaddleOCR
提交
3ed70fb3
P
PaddleOCR
项目概览
weixin_41840029
/
PaddleOCR
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleOCR
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleOCR
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
3ed70fb3
编写于
5月 29, 2020
作者:
L
LDOUBLEV
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update readme
上级
9058e002
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
32 addition
and
19 deletion
+32
-19
README.md
README.md
+19
-7
doc/inference.md
doc/inference.md
+13
-12
未找到文件。
README.md
浏览文件 @
3ed70fb3
...
...
@@ -9,6 +9,14 @@ PaddleOCR旨在打造一套丰富、领先、且实用的OCR工具库,助力
-
多种文本检测训练算法,EAST、DB
-
多种文本识别训练算法,Rosetta、CRNN、STAR-Net、RARE
### 已发布的中文模型:
|模型|检测|识别|
|-|-|-|
|8.6M中文模型|
[
inference模型
](
https://paddleocr.bj.bcebos.com/ch_models/ch_det_mv3_db_infer.tar
)
&
[
预训练模型
](
https://paddleocr.bj.bcebos.com/ch_models/ch_det_mv3_db.tar
)
|
[
inference模型
](
https://paddleocr.bj.bcebos.com/ch_models/ch_rec_mv3_crnn_infer.tar
)
&
[
预训练模型
](
https://paddleocr.bj.bcebos.com/ch_models/ch_rec_mv3_crnn.tar
)
|
|中文大模型|
[
inference模型
](
https://paddleocr.bj.bcebos.com/ch_models/ch_det_r50_vd_db_infer.tar
)
&
[
预训练模型
](
https://paddleocr.bj.bcebos.com/ch_models/ch_det_r50_vd_db.tar
)
|
[
inference模型
](
https://paddleocr.bj.bcebos.com/ch_models%2Fch_rec_r34_vd_crnn_infer.tar
)
&
[
预训练模型
](
https://paddleocr.bj.bcebos.com/ch_models%2Fch_rec_r34_vd_crnn.tar
)
|
## **超轻量级中文OCR体验**
![](
doc/imgs_results/11.jpg
)
...
...
@@ -22,10 +30,12 @@ PaddleOCR旨在打造一套丰富、领先、且实用的OCR工具库,助力
#### 2.模型下载
```
# 下载inference模型文件包
wget https://paddleocr.bj.bcebos.com/inference.tar
mkdir inference && cd inference
# 下载8.6M中文模型的检测模型并解压
wget https://paddleocr.bj.bcebos.com/ch_models/ch_det_mv3_db_infer.tar && tar xf ch_det_mv3_db_infer.tar
# 下载8.6M中文模型的识别模型并解压
wget https://paddleocr.bj.bcebos.com/ch_models/ch_rec_mv3_crnn_infer.tar && tar xf ch_rec_mv3_crnn_infer.tar
# inference模型文件包解压
tar -xf inference.tar
```
#### 3.单张图像或者图像集合预测
...
...
@@ -37,14 +47,15 @@ tar -xf inference.tar
export PYTHONPATH=.
# 预测image_dir指定的单张图像
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/11.jpg" --det_model_dir="./inference/
det/" --rec_model_dir="./inference/rec
/"
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/11.jpg" --det_model_dir="./inference/
ch_det_mv3_db_infer/" --rec_model_dir="./inference/ch_rec_mv3_crnn_infer
/"
# 预测image_dir指定的图像集合
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/" --det_model_dir="./inference/
det/" --rec_model_dir="./inference/rec
/"
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/" --det_model_dir="./inference/
ch_det_mv3_db_infer/" --rec_model_dir="./inference/ch_rec_mv3_crnn_infer
/"
# 如果想使用CPU进行预测,
执行命令如下
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/11.jpg" --det_model_dir="./inference/
det/" --rec_model_dir="./inference/rec
/" --use_gpu=False
# 如果想使用CPU进行预测,
需设置use_gpu参数为False
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/11.jpg" --det_model_dir="./inference/
ch_det_mv3_db_infer/" --rec_model_dir="./inference/ch_rec_mv3_crnn_infer
/" --use_gpu=False
```
更多的文本检测、识别串联推理使用方式请参考文档教程中
[
基于预测引擎推理
](
./doc/inference.md
)
。
...
...
@@ -172,6 +183,7 @@ PaddleOCR文本识别算法的训练和使用请参考文档教程中[文本识
本项目的发布受
<a
href=
"https://github.com/PaddlePaddle/PaddleOCR/blob/master/LICENSE"
>
Apache 2.0 license
</a>
许可认证。
## 版本更新
-
2020.5.29 发布中文检测、识别的大模型
## 如何贡献代码
我们非常欢迎你为PaddleOCR贡献代码,也十分感谢你的反馈。
doc/inference.md
浏览文件 @
3ed70fb3
...
...
@@ -13,17 +13,17 @@ inference 模型(fluid.io.save_inference_model保存的模型)
下载超轻量级中文检测模型:
```
wget -P ./ch_lite/ https://paddleocr.bj.bcebos.com/ch_models/
det_mv3_db.tar && tar xf ch_lite/det_mv3_db.tar -C ch_lite
wget -P ./ch_lite/ https://paddleocr.bj.bcebos.com/ch_models/
ch_det_mv3_db.tar && tar xf ch_lite/ch_det_mv3_db.tar -C .ch_lite/
```
上述模型是以MobileNetV3为backbone训练的DB算法,将训练好的模型转换成inference模型只需要运行如下命令:
```
python3 tools/export_model.py -c configs/det/det_mv3_db.yml -o Global.checkpoints=./ch_lite/
det_mv3_db/best_accuracy Global.save_inference_dir=./inference_model
/det_db/
python3 tools/export_model.py -c configs/det/det_mv3_db.yml -o Global.checkpoints=./ch_lite/
ch_det_mv3_db/best_accuracy Global.save_inference_dir=./inference
/det_db/
```
转inference模型时,使用的配置文件和训练时使用的配置文件相同。另外,还需要设置配置文件中的Global.checkpoints、Global.save_inference_dir参数。
其中Global.checkpoints指向训练中保存的模型参数文件,Global.save_inference_dir是生成的inference模型要保存的目录。
转换成功后,在save_inference_dir 目录下有两个文件:
```
inference
_model
/det_db/
inference/det_db/
└─ model 检测inference模型的program文件
└─ params 检测inference模型的参数文件
```
...
...
@@ -32,19 +32,20 @@ inference_model/det_db/
下载超轻量中文识别模型:
```
wget -P ./ch_lite/ https://paddleocr.bj.bcebos.com/ch_models/rec_
crnn.tar && tar xf ch_lite/rec
_crnn.tar -C .ch_lite/
wget -P ./ch_lite/ https://paddleocr.bj.bcebos.com/ch_models/rec_
mv3_crnn.tar && tar xf ch_lite/rec_mv3
_crnn.tar -C .ch_lite/
```
识别模型转inference模型与检测的方式相同,如下:
```
python3 tools/export_model.py -c configs/rec/rec_chinese_lite_train.yml -o Global.checkpoints=./ch_lite/rec_crnn/best_accuracy \
Global.save_inference_dir=./inference
_model
/rec_crnn/
python3 tools/export_model.py -c configs/rec/rec_chinese_lite_train.yml -o Global.checkpoints=./ch_lite/rec_
mv3_
crnn/best_accuracy \
Global.save_inference_dir=./inference/rec_crnn/
```
如果您是在自己的数据集上训练的模型,并且调整了中文字符的字典文件,请注意修改配置文件中的character_dict_path是否是所需要的字典文件。
转换成功后,在目录下有两个文件:
```
/inference
_model
/rec_crnn/
/inference/rec_crnn/
└─ model 识别inference模型的program文件
└─ params 识别inference模型的参数文件
```
...
...
@@ -58,7 +59,7 @@ python3 tools/export_model.py -c configs/rec/rec_chinese_lite_train.yml -o Globa
超轻量中文检测模型推理,可以执行如下命令:
```
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det/"
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det
_db
/"
```
可视化文本检测结果默认保存到 ./inference_results 文件夹里面,结果文件的名称前缀为'det_res'。结果示例如下:
...
...
@@ -68,12 +69,12 @@ python3 tools/infer/predict_det.py --image_dir="./doc/imgs/2.jpg" --det_model_di
通过设置参数det_max_side_len的大小,改变检测算法中图片规范化的最大值。当图片的长宽都小于det_max_side_len,则使用原图预测,否则将图片等比例缩放到最大值,进行预测。该参数默认设置为det_max_side_len=960. 如果输入图片的分辨率比较大,而且想使用更大的分辨率预测,可以执行如下命令:
```
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det/" --det_max_side_len=1200
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det
_db
/" --det_max_side_len=1200
```
如果想使用CPU进行预测,执行命令如下
```
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det/" --use_gpu=False
python3 tools/infer/predict_det.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det
_db
/" --use_gpu=False
```
### 2.DB文本检测模型推理
...
...
@@ -134,7 +135,7 @@ python3 tools/infer/predict_det.py --image_dir="./doc/imgs_en/img_10.jpg" --det_
超轻量中文识别模型推理,可以执行如下命令:
```
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/ch/word_4.jpg" --rec_model_dir="./inference/rec/"
python3 tools/infer/predict_rec.py --image_dir="./doc/imgs_words/ch/word_4.jpg" --rec_model_dir="./inference/rec
_crnn
/"
```
![](
imgs_words/ch/word_4.jpg
)
...
...
@@ -188,7 +189,7 @@ dict_character = list(self.character_str)
在执行预测时,需要通过参数image_dir指定单张图像或者图像集合的路径、参数det_model_dir指定检测inference模型的路径和参数rec_model_dir指定识别inference模型的路径。可视化识别结果默认保存到 ./inference_results 文件夹里面。
```
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det
/" --rec_model_dir="./inference/rec
/"
python3 tools/infer/predict_system.py --image_dir="./doc/imgs/2.jpg" --det_model_dir="./inference/det
_db/" --rec_model_dir="./inference/rec_crnn
/"
```
执行命令后,识别结果图像如下:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录