未验证 提交 7a886b61 编写于 作者: littletomatodonkey's avatar littletomatodonkey 提交者: GitHub

fix ref link (#5440)

上级 852b8485
......@@ -308,9 +308,9 @@ unset https_proxy
**【实战】**
AlexNet中,模型推理的命令可以参考:[AlexNet 模型推理](https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/README.md#512-%E6%A8%A1%E5%9E%8B%E6%8E%A8%E7%90%86)
AlexNet中,模型推理的命令可以参考:[AlexNet 模型推理](https://github.com/littletomatodonkey/AlexNet-Prod/tree/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference_python#23-%E6%A8%A1%E5%9E%8B%E6%8E%A8%E7%90%86)
模型部署的命令说明可以参考:[AlexNet模型部署](https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/serving/README.md#24-%E5%AE%A2%E6%88%B7%E7%AB%AF%E8%AE%BF%E9%97%AE%E6%9C%8D%E5%8A%A1)
模型部署的命令说明可以参考:[AlexNet模型部署](https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/serving_python/README.md#24-%E5%AE%A2%E6%88%B7%E7%AB%AF%E8%AE%BF%E9%97%AE%E6%9C%8D%E5%8A%A1)
**【核验】**
......
......@@ -90,17 +90,17 @@ Serving服务化部署主要分为以下5个步骤。
| 5 | --dirname:./model_infer/ | 配置Inference模型输入路径 | 否 | 是 | value修改为自己的Inference模型所在文件夹 |
| 6 | --model_filename:inference.pdmodel | 配置模型结构文件名 | 否 | 是 | value修改为自己的模型结构文件名 |
| 7 | --params_filename:inference.pdiparams | 配置模型参数文件名 | 否 | 是 | value修改为自己的模型参数文件名 |
| 8 | --serving_server:./deploy/serving/serving_server | 配置输出的Serving服务端模型路径 | 否 | 是 | value修改为自己的输出Serving服务端模型路径 |
| 9 | --serving_client:./deploy/serving/serving_client | 配置输出的Serving客户端模型路径 | 否 | 是 | value修改为自己的输出Serving客户端模型路径 |
| 8 | --serving_server:./deploy/serving_python/serving_server | 配置输出的Serving服务端模型路径 | 否 | 是 | value修改为自己的输出Serving服务端模型路径 |
| 9 | --serving_client:./deploy/serving_python/serving_client | 配置输出的Serving客户端模型路径 | 否 | 是 | value修改为自己的输出Serving客户端模型路径 |
</details>
以命令`python -m paddle_serving_client.convert --dirname ./alexnet_infer/ --model_filename inference.pdmodel --params_filename inference.pdiparams --serving_server ./deploy/serving/alexnet_server --serving_client ./deploy/serving/alexnet_client`为例。
以命令`python -m paddle_serving_client.convert --dirname ./alexnet_infer/ --model_filename inference.pdmodel --params_filename inference.pdiparams --serving_server ./deploy/serving_python/alexnet_server --serving_client ./deploy/serving_python/alexnet_client`为例。
* Inference模型路径为`./alexnet_infer/`,因此第5行需要修改为`--dirname:./alexnet_infer/`
* 模型结构和参数文件名和默认保持一致,因此这里无需修改。
* 服务端保存的目录名称为`deploy/serving/alexnet_server`,因此第8行需要修改为`deploy/serving/alexnet_server`
* 客户端保存的目录名称为`deploy/serving/alexnet_client`,因此第9行需要修改为`deploy/serving/alexnet_client`
* 服务端保存的目录名称为`deploy/serving_python/alexnet_server`,因此第8行需要修改为`deploy/serving_python/alexnet_server`
* 客户端保存的目录名称为`deploy/serving_python/alexnet_client`,因此第9行需要修改为`deploy/serving_python/alexnet_client`
#### 2.2.2 服务启动配置参数
......
......@@ -177,7 +177,7 @@ class InferenceEngine(object):
**【实战】**
该模板类对应AlexNet的实现位于:[infer.py](https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference/python/infer.py)
该模板类对应AlexNet的实现位于:[infer.py](https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference_python/infer.py)
其中每个子模块的操作在下面详细介绍。
......@@ -194,7 +194,7 @@ class InferenceEngine(object):
针对AlexNet模型,推理引擎初始化函数实现如下,其中模型结构和参数文件路径、是否使用GPU、是否开启MKLDNN等内容都是可以配置的。
```py
# https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference/python/infer.py#L38
# https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference_python/infer.py#L38
def load_predictor(self, model_file_path, params_file_path):
args = self.args
config = inference.Config(model_file_path, params_file_path)
......@@ -243,7 +243,7 @@ class InferenceEngine(object):
图像分类AlexNet为例,预处理包含`Resize`, `CenterCrop`, `Normalize`, `ToCHW` 4个步骤,预处理实现如下所示。
```py
# https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference/python/infer.py#L68
# https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference_python/infer.py#L68
def preprocess(self, img_path):
with open(img_path, "rb") as f:
img = Image.open(f)
......@@ -353,7 +353,7 @@ AutoLog是一个自动日志记录工具,包含自动计时,统计CPU内存
**【实战】**
AlexNet推理脚本中,打开`benchmark`选项,即可输出规范化的推理日志,可以参考:[infer.py](https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/pdinference/infer.py)
AlexNet推理脚本中,打开`benchmark`选项,即可输出规范化的推理日志,可以参考:[infer.py](https://github.com/littletomatodonkey/AlexNet-Prod/blob/tipc/pipeline/Step5/AlexNet_paddle/deploy/inference_python/infer.py)
```py
# init benchmark
......
......@@ -201,9 +201,9 @@ python run_script set_configs
</details>
以推理命令`python deploy/inference/python/infer.py --model-dir=./alexnet_infer/ --img-path=./lite_data/test/demo.jpg`为例。
以推理命令`python deploy/inference_python/infer.py --model-dir=./alexnet_infer/ --img-path=./lite_data/test/demo.jpg`为例。
* 推理的入口脚本为`deploy/inference/python/infer.py`,因此40行需要修改为`inference:deploy/inference/python/infer.py`
* 推理的入口脚本为`deploy/inference_python/infer.py`,因此40行需要修改为`inference:deploy/inference_python/infer.py`
* Inference模型目录配置为`--model-dir=./alexnet_infer/`,而运行该命令时,会直接基于已经生成的Inference模型,因此47行需要修改为`--model-dir:./alexnet_infer/`
* 测试图像目录配置为`--img-path=./lite_data/test/demo.jpg`,因此48行修改为`--img-path:./lite_data/test/demo.jpg`
......@@ -229,7 +229,7 @@ python3.7 train.py --device=gpu --epochs=2 --data-path=./lite_data --lr=0.001
# 模型动转静
python tools/export_model.py --pretrained=./alexnet_paddle.pdparams --save-inference-dir="./alexnet_infer" --model=alexnet
# 推理
python deploy/inference/python/infer.py --model-dir=./alexnet_infer/ --img-path=./lite_data/test/demo.jpg
python deploy/inference_python/infer.py --model-dir=./alexnet_infer/ --img-path=./lite_data/test/demo.jpg
```
<a name="3.2"></a>
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册