Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleOCR
提交
e11b8aff
P
PaddleOCR
项目概览
PaddlePaddle
/
PaddleOCR
大约 1 年 前同步成功
通知
1528
Star
32962
Fork
6643
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
108
列表
看板
标记
里程碑
合并请求
7
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleOCR
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
108
Issue
108
列表
看板
标记
里程碑
合并请求
7
合并请求
7
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
e11b8aff
编写于
9月 23, 2020
作者:
J
Jiawei Wang
提交者:
GitHub
9月 23, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update serving_inference.md
上级
62f85ec0
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
26 addition
and
5 deletion
+26
-5
doc/doc_ch/serving_inference.md
doc/doc_ch/serving_inference.md
+26
-5
未找到文件。
doc/doc_ch/serving_inference.md
浏览文件 @
e11b8aff
...
@@ -6,9 +6,30 @@
...
@@ -6,9 +6,30 @@
接下来首先介绍如何将训练的模型转换成Paddle Serving模型,然后将依次介绍文本检测、文本识别以及两者串联基于预测引擎推理。
接下来首先介绍如何将训练的模型转换成Paddle Serving模型,然后将依次介绍文本检测、文本识别以及两者串联基于预测引擎推理。
### 一、 准备环境
我们先安装Paddle Serving相关组件
我们推荐用户使用GPU来做Paddle Serving的OCR服务部署
**CUDA版本:9/10**
## 一、训练模型转Serving模型
**CUDNN版本:7**
**操作系统版本:Linux/Windows**
**Python版本: 2.7/3.6/3.7**
**Python操作指南:**
```
#CPU/GPU版本选择一个
#GPU版本服务端
python -m pip install paddle_serving_server_gpu
#CPU版本服务端
python -m pip install paddle_serving_server
#客户端和App包使用以下链接(CPU,GPU通用)
python -m pip install paddle_serving_app paddle_serving_client
```
## 二、训练模型转Serving模型
在前序文档
[
基于Python预测引擎推理
](
./inference.md
)
中,我们提供了如何把训练的checkpoint转换成Paddle模型。Paddle模型通常由一个文件夹构成,内含模型结构描述文件
`model`
和模型参数文件
`params`
。Serving模型由两个文件夹构成,用于存放客户端和服务端的配置。
在前序文档
[
基于Python预测引擎推理
](
./inference.md
)
中,我们提供了如何把训练的checkpoint转换成Paddle模型。Paddle模型通常由一个文件夹构成,内含模型结构描述文件
`model`
和模型参数文件
`params`
。Serving模型由两个文件夹构成,用于存放客户端和服务端的配置。
...
@@ -30,7 +51,7 @@ python tools/inference_to_serving.py --model_dir ch_rec_r34_vd_crnn
...
@@ -30,7 +51,7 @@ python tools/inference_to_serving.py --model_dir ch_rec_r34_vd_crnn
└── serving_server_dir # 服务端配置文件夹
└── serving_server_dir # 服务端配置文件夹
```
```
##
二
、文本检测模型Serving推理
##
三
、文本检测模型Serving推理
启动服务可以根据实际需求选择启动
`标准版`
或者
`快速版`
,两种方式的对比如下表:
启动服务可以根据实际需求选择启动
`标准版`
或者
`快速版`
,两种方式的对比如下表:
...
@@ -114,7 +135,7 @@ python det_web_client.py
...
@@ -114,7 +135,7 @@ python det_web_client.py
Serving的推测和本地预测不同点在于,客户端发送请求到服务端,服务端需要检测到文字框之后返回框的坐标,此处没有后处理的图片,只能看到坐标值。
Serving的推测和本地预测不同点在于,客户端发送请求到服务端,服务端需要检测到文字框之后返回框的坐标,此处没有后处理的图片,只能看到坐标值。
##
三
、文本识别模型Serving推理
##
四
、文本识别模型Serving推理
下面将介绍超轻量中文识别模型推理、基于CTC损失的识别模型推理和基于Attention损失的识别模型推理。对于中文文本识别,建议优先选择基于CTC损失的识别模型,实践中也发现基于Attention损失的效果不如基于CTC损失的识别模型。此外,如果训练时修改了文本的字典,请参考下面的自定义文本识别字典的推理。
下面将介绍超轻量中文识别模型推理、基于CTC损失的识别模型推理和基于Attention损失的识别模型推理。对于中文文本识别,建议优先选择基于CTC损失的识别模型,实践中也发现基于Attention损失的效果不如基于CTC损失的识别模型。此外,如果训练时修改了文本的字典,请参考下面的自定义文本识别字典的推理。
...
@@ -145,7 +166,7 @@ python rec_web_client.py
...
@@ -145,7 +166,7 @@ python rec_web_client.py
##
四
、方向分类模型推理
##
五
、方向分类模型推理
下面将介绍方向分类模型推理。
下面将介绍方向分类模型推理。
...
@@ -176,7 +197,7 @@ python rec_web_client.py
...
@@ -176,7 +197,7 @@ python rec_web_client.py
```
```
##
五
、文本检测、方向分类和文字识别串联Serving推理
##
六
、文本检测、方向分类和文字识别串联Serving推理
### 1. 超轻量中文OCR模型推理
### 1. 超轻量中文OCR模型推理
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录