Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
248fb5a4
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
248fb5a4
编写于
5月 25, 2020
作者:
C
Channingss
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix doc
上级
b6581a26
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
27 addition
and
13 deletion
+27
-13
.pre-commit-config.yaml
.pre-commit-config.yaml
+1
-1
deploy/cpp/include/paddlex/results.h
deploy/cpp/include/paddlex/results.h
+2
-1
deploy/lite/export_lite.py
deploy/lite/export_lite.py
+8
-8
docs/tutorials/deploy/deploy_lite.md
docs/tutorials/deploy/deploy_lite.md
+16
-3
未找到文件。
.pre-commit-config.yaml
浏览文件 @
248fb5a4
...
@@ -35,6 +35,6 @@
...
@@ -35,6 +35,6 @@
-
id
:
cpplint-cpp-source
-
id
:
cpplint-cpp-source
name
:
cpplint
name
:
cpplint
description
:
Check C++ code style using cpplint.py.
description
:
Check C++ code style using cpplint.py.
entry
:
bash cpplint_pre_commit.hook
entry
:
bash
./tools/codestyle/
cpplint_pre_commit.hook
language
:
system
language
:
system
files
:
\.(c|cc|cxx|cpp|cu|h|hpp|hxx)$
files
:
\.(c|cc|cxx|cpp|cu|h|hpp|hxx)$
deploy/cpp/include/paddlex/results.h
浏览文件 @
248fb5a4
...
@@ -63,9 +63,10 @@ class SegResult : public BaseResult {
...
@@ -63,9 +63,10 @@ class SegResult : public BaseResult {
public:
public:
Mask
<
int64_t
>
label_map
;
Mask
<
int64_t
>
label_map
;
Mask
<
float
>
score_map
;
Mask
<
float
>
score_map
;
std
::
string
type
=
"seg"
;
void
clear
()
{
void
clear
()
{
label_map
.
clear
();
label_map
.
clear
();
score_map
.
clear
();
score_map
.
clear
();
}
}
};
};
}
// namesp
ce of
PaddleX
}
// namesp
ace
PaddleX
deploy/lite/export_lite.py
浏览文件 @
248fb5a4
...
@@ -19,30 +19,30 @@ import argparse
...
@@ -19,30 +19,30 @@ import argparse
def
export_lite
():
def
export_lite
():
opt
=
lite
.
Opt
()
opt
=
lite
.
Opt
()
model_file
=
os
.
path
.
join
(
FLAGS
.
model_
path
,
'__model__'
)
model_file
=
os
.
path
.
join
(
FLAGS
.
model_
dir
,
'__model__'
)
params_file
=
os
.
path
.
join
(
FLAGS
.
model_
path
,
'__params__'
)
params_file
=
os
.
path
.
join
(
FLAGS
.
model_
dir
,
'__params__'
)
opt
.
run_optimize
(
""
,
model_file
,
params_file
,
FLAGS
.
place
,
FLAGS
.
save_
dir
)
opt
.
run_optimize
(
""
,
model_file
,
params_file
,
FLAGS
.
place
,
FLAGS
.
save_
file
)
if
__name__
==
'__main__'
:
if
__name__
==
'__main__'
:
parser
=
argparse
.
ArgumentParser
(
description
=
__doc__
)
parser
=
argparse
.
ArgumentParser
(
description
=
__doc__
)
parser
.
add_argument
(
parser
.
add_argument
(
"--model_
path
"
,
"--model_
dir
"
,
type
=
str
,
type
=
str
,
default
=
""
,
default
=
""
,
help
=
"
model path
."
,
help
=
"
path of '__model__' and '__params__'
."
,
required
=
True
)
required
=
True
)
parser
.
add_argument
(
parser
.
add_argument
(
"--place"
,
"--place"
,
type
=
str
,
type
=
str
,
default
=
"arm"
,
default
=
"arm"
,
help
=
"
preprocess config path
."
,
help
=
"
run place: 'arm|opencl|x86|npu|xpu|rknpu|apu'
."
,
required
=
True
)
required
=
True
)
parser
.
add_argument
(
parser
.
add_argument
(
"--save_
dir
"
,
"--save_
file
"
,
type
=
str
,
type
=
str
,
default
=
"paddlex.onnx"
,
default
=
"paddlex.onnx"
,
help
=
"
Directory for storing the output visualization
files."
,
help
=
"
file name for storing the output
files."
,
required
=
True
)
required
=
True
)
FLAGS
=
parser
.
parse_args
()
FLAGS
=
parser
.
parse_args
()
export_lite
()
export_lite
()
docs/tutorials/deploy/deploy_lite.md
浏览文件 @
248fb5a4
# 移动端部署
# 移动端部署
PaddleX的移动端部署由PaddleLite实现,部署的流程如下,首先将训练好的模型导出为inference model,然后使用PaddleLite的python接口对模型进行优化,最后使用PaddleLite的预测库进行部署,
PaddleLite的详细介绍和使用可参考:
[
PaddleLite文档
](
https://paddle-lite.readthedocs.io/zh/latest/
)
> PaddleX --> Inference Model --> PaddleLite Opt --> PaddleLite Inference
以下介绍如何将PaddleX导出为inference model,然后使用PaddleLite的OPT模块对模型进行优化:
step 1: 安装PaddleLite
step 1: 安装PaddleLite
```
```
...
@@ -9,15 +16,21 @@ pip install paddlelite
...
@@ -9,15 +16,21 @@ pip install paddlelite
step 2: 将PaddleX模型导出为inference模型
step 2: 将PaddleX模型导出为inference模型
参考
[
导出inference模型
](
deploy_server/deploy_python.html#inference
)
将模型导出为inference格式模型。
参考
[
导出inference模型
](
deploy_server/deploy_python.html#inference
)
将模型导出为inference格式模型。
**注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考[模型版本升级](.
.
/upgrade_version.md)对模型版本进行升级。**
**注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考[模型版本升级](./upgrade_version.md)对模型版本进行升级。**
step 3: 将inference模型转换成PaddleLite模型
step 3: 将inference模型转换成PaddleLite模型
```
```
python /path/to/PaddleX/deploy/lite/export_lite.py --model_path /path/to/inference_model --save_dir /path/to/onnx_model
python /path/to/PaddleX/deploy/lite/export_lite.py --model_dir /path/to/inference_model --save_file /path/to/onnx_model --place place/to/run
```
```
`--model_path`
用于指定inference模型的路径,
`--save_dir`
用于指定Lite模型的保存路径。
| 参数 | 说明 |
| ---- | ---- |
| model_dir | 预测模型所在路径,包含"__model__", "__params__"文件 |
| save_file | 模型输出的名称,默认为"paddlex.nb" |
| place | 运行的平台,可选:arm|opencl|x86|npu|xpu|rknpu|apu |
step 4: 预测
step 4: 预测
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录