Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
models
提交
0cdd9952
M
models
项目概览
PaddlePaddle
/
models
大约 1 年 前同步成功
通知
222
Star
6828
Fork
2962
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
602
列表
看板
标记
里程碑
合并请求
255
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
models
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
602
Issue
602
列表
看板
标记
里程碑
合并请求
255
合并请求
255
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
0cdd9952
编写于
12月 12, 2021
作者:
littletomatodonkey
提交者:
GitHub
12月 12, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix error desc (#5422)
上级
d06c76d9
变更
2
显示空白变更内容
内联
并排
Showing
2 changed file
with
9 addition
and
9 deletion
+9
-9
docs/tipc/serving/test_serving.md
docs/tipc/serving/test_serving.md
+2
-2
docs/tipc/train_infer_python/test_train_infer_python.md
docs/tipc/train_infer_python/test_train_infer_python.md
+7
-7
未找到文件。
docs/tipc/serving/test_serving.md
浏览文件 @
0cdd9952
...
@@ -30,7 +30,7 @@
...
@@ -30,7 +30,7 @@
具体地,本文档主要关注Linux GPU/CPU 下模型的服务化部署能力,具体测试点如下:
具体地,本文档主要关注Linux GPU/CPU 下模型的服务化部署能力,具体测试点如下:
-
Inference 模型转 Serving 模型
-
Inference 模型转 Serving 模型
-
Paddle
Inference 推理过程跑通
-
Paddle
Serving 服务化部署开发
<a
name=
"2"
></a>
<a
name=
"2"
></a>
...
@@ -103,7 +103,7 @@ Serving服务化部署主要分为以下5个步骤。
...
@@ -103,7 +103,7 @@ Serving服务化部署主要分为以下5个步骤。
</details>
</details>
以命令
`python -m paddle_serving_client.convert --dirname ./alexnet_infer/ --model_filename inference.pdmodel --params_filename inference.pdiparams --serving_server ./deploy/serving/alexnet_server --serving_client ./deploy/serving/alexnet_
server
`
为例。
以命令
`python -m paddle_serving_client.convert --dirname ./alexnet_infer/ --model_filename inference.pdmodel --params_filename inference.pdiparams --serving_server ./deploy/serving/alexnet_server --serving_client ./deploy/serving/alexnet_
client
`
为例。
*
Inference模型路径为
`./alexnet_infer/`
,因此第5行需要修改为
`--dirname:./alexnet_infer/`
*
Inference模型路径为
`./alexnet_infer/`
,因此第5行需要修改为
`--dirname:./alexnet_infer/`
*
模型结构和参数文件名和默认保持一致,因此这里无需修改。
*
模型结构和参数文件名和默认保持一致,因此这里无需修改。
...
...
docs/tipc/train_infer_python/test_train_infer_python.md
浏览文件 @
0cdd9952
...
@@ -107,9 +107,9 @@ python run_script set_configs
...
@@ -107,9 +107,9 @@ python run_script set_configs
| 4 | gpu_list:0 | gpu id | 否 | 是 | value修改为自己的GPU ID |
| 4 | gpu_list:0 | gpu id | 否 | 是 | value修改为自己的GPU ID |
| 5 | use_gpu:True | 是否使用GPU | 是 | 是 | key修改为可以设置GPU的内容,value修改为设置GPU的值 |
| 5 | use_gpu:True | 是否使用GPU | 是 | 是 | key修改为可以设置GPU的内容,value修改为设置GPU的值 |
| 6 | auto_cast:null | 是否使用混合精度 | 否 | 否 | - |
| 6 | auto_cast:null | 是否使用混合精度 | 否 | 否 | - |
| 7 | epoch_num:lite_train_infer=1 | 迭代的epoch数目 | 是 | 否 | key修改为可以设置代码中epoch数量的内容 |
| 7 | epoch_num:lite_train_
lite_
infer=1 | 迭代的epoch数目 | 是 | 否 | key修改为可以设置代码中epoch数量的内容 |
| 8 | output_dir:./output/ | 输出目录 | 是 | 否 | key修改为代码中可以设置输出路径的内容 |
| 8 | output_dir:./output/ | 输出目录 | 是 | 否 | key修改为代码中可以设置输出路径的内容 |
| 9 | train_batch_size:lite_train_infer=1 | 训练的batch size | 是 | 否 | key修改为可以设置代码中batch size的内容 |
| 9 | train_batch_size:lite_train_
lite_
infer=1 | 训练的batch size | 是 | 否 | key修改为可以设置代码中batch size的内容 |
| 10 | pretrained_model:null | 预训练模型 | 是 | 是 | 如果训练时指定了预训练模型,则需要key和value需要对应修改 |
| 10 | pretrained_model:null | 预训练模型 | 是 | 是 | 如果训练时指定了预训练模型,则需要key和value需要对应修改 |
| 11 | train_model_name:latest | 训练结果的模型名字 | 否 | 是 | value需要修改为训练完成之后保存的模型名称,用于后续的动转静 |
| 11 | train_model_name:latest | 训练结果的模型名字 | 否 | 是 | value需要修改为训练完成之后保存的模型名称,用于后续的动转静 |
| 12 | null:null | 预留字段 | 否 | 否 | - |
| 12 | null:null | 预留字段 | 否 | 否 | - |
...
@@ -117,11 +117,11 @@ python run_script set_configs
...
@@ -117,11 +117,11 @@ python run_script set_configs
</details>
</details>
以训练命令
`python3.7 train.py --device=gpu --epochs=
1
--data-path=./lite_data --lr=0.001 `
为例,总共包含4个超参数。
以训练命令
`python3.7 train.py --device=gpu --epochs=
2
--data-path=./lite_data --lr=0.001 `
为例,总共包含4个超参数。
*
运行设备:
`--device=gpu`
,则需要修改为配置文件的第5行,
`key`
为
`--device`
,
`value`
为
`gpu`
,修改后内容为
`--device:gpu`
*
运行设备:
`--device=gpu`
,则需要修改为配置文件的第5行,
`key`
为
`--device`
,
`value`
为
`gpu`
,修改后内容为
`--device:gpu`
*
迭代轮数:
`--epochs=2`
,则需要修改配置文件的第7行,修改后内容为
`--epochs:lite_train_
infer=2`
(
`lite_train
_infer`
为模式设置,表示少量数据训练,少量数据推理,此处无需修改)
*
迭代轮数:
`--epochs=2`
,则需要修改配置文件的第7行,修改后内容为
`--epochs:lite_train_
lite_infer=2`
(
`lite_train_lite
_infer`
为模式设置,表示少量数据训练,少量数据推理,此处无需修改)
*
数据路径:
`--data-path=./lite_data`
,由于配置文件中不包含该项配置,因此可以将其和
`train.py`
字段放在一起(2.2.
),或者在第12行添加自定义字段,内容为
`--data-path:./lite_data`
*
数据路径:
`--data-path=./lite_data`
,由于配置文件中不包含该项配置,因此可以将其和
`train.py`
字段放在一起(2.2.
2节中会详细介绍),或者在第12行添加自定义字段,内容为
`--data-path:./lite_data`
,
*
学习率:
`--lr=0.001`
,同数据路径配置
*
学习率:
`--lr=0.001`
,同数据路径配置
#### 2.2.2 训练命令配置参数
#### 2.2.2 训练命令配置参数
...
@@ -147,14 +147,14 @@ python run_script set_configs
...
@@ -147,14 +147,14 @@ python run_script set_configs
以训练命令
`python3.7 train.py --device=gpu --epochs=1 --data-path=./lite_data --lr=0.001`
为例,该命令是正常训练(非裁剪、量化、蒸馏等方式),因此
以训练命令
`python3.7 train.py --device=gpu --epochs=1 --data-path=./lite_data --lr=0.001`
为例,该命令是正常训练(非裁剪、量化、蒸馏等方式),因此
*
配置文件的第15行直接写
`norm_train`
即可。
*
配置文件的第15行直接写
`norm_train`
即可。
*
第16行配置
`norm_train`
的具体运行脚本/入口,即上述命令中的
`train.py`
因此配置文件的16行内容
修改为
`norm_train:train.py`
,考虑到
`-data-path=./lite_data --lr=0.001`
超参数无法在
*
第16行配置
`norm_train`
的具体运行脚本/入口,即上述命令中的
`train.py`
因此配置文件的16行内容
初步可以修改为
`norm_train:train.py`
,考虑到
`-data-path=./lite_data --lr=0.001`
超参数无法在配置文件中配置,因此可以在这里添加,修改后内容为
`norm_train:train.py -data-path=./lite_data --lr=0.001`
*
由于其他训练方式目前不支持,因此在17~21行的对应内容无需改动(默认为null)
*
由于其他训练方式目前不支持,因此在17~21行的对应内容无需改动(默认为null)
#### 2.2.3 模型动转静配置参数
#### 2.2.3 模型动转静配置参数
下面给出了配置文件中的模型动转静配置参数。
下面给出了配置文件中的模型动转静配置参数。
**【注意
:】
**
在模型动转静过程中,为方便管理输入输出,程序会自动指定输入和输出目录,因此我们只需要提供可以配置输入输出目录的参数即可。
**【注意
】:
**
在模型动转静过程中,为方便管理输入输出,程序会自动指定输入和输出目录,因此我们只需要提供可以配置输入输出目录的参数即可。
<details>
<details>
<summary><b>
模型动转静配置参数(点击以展开详细内容或者折叠)
</b></summary>
<summary><b>
模型动转静配置参数(点击以展开详细内容或者折叠)
</b></summary>
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录