未验证 提交 efaf5518 编写于 作者: C cnn 提交者: GitHub

update serving (#3801) (#3816)

上级 e23725ca
...@@ -10,7 +10,7 @@ python tools/infer.py -c configs/yolov3/yolov3_darknet53_270e_coco.yml --infer_i ...@@ -10,7 +10,7 @@ python tools/infer.py -c configs/yolov3/yolov3_darknet53_270e_coco.yml --infer_i
``` ```
## 2. 安装 paddle serving ## 2. 安装 paddle serving
请参考[PaddleServing](https://github.com/PaddlePaddle/Serving/tree/v0.5.0) 中安装教程安装 请参考[PaddleServing](https://github.com/PaddlePaddle/Serving/tree/v0.6.0) 中安装教程安装(版本>=0.6.0)。
## 3. 导出模型 ## 3. 导出模型
PaddleDetection在训练过程包括网络的前向和优化器相关参数,而在部署过程中,我们只需要前向参数,具体参考:[导出模型](https://github.com/PaddlePaddle/PaddleDetection/blob/develop/deploy/EXPORT_MODEL.md) PaddleDetection在训练过程包括网络的前向和优化器相关参数,而在部署过程中,我们只需要前向参数,具体参考:[导出模型](https://github.com/PaddlePaddle/PaddleDetection/blob/develop/deploy/EXPORT_MODEL.md)
...@@ -87,7 +87,7 @@ fetch_var { ...@@ -87,7 +87,7 @@ fetch_var {
cd output_inference/yolov3_darknet53_270e_coco/ cd output_inference/yolov3_darknet53_270e_coco/
# GPU # GPU
python -m paddle_serving_server_gpu.serve --model serving_server --port 9393 --gpu_ids 0 python -m paddle_serving_server.serve --model serving_server --port 9393 --gpu_ids 0
# CPU # CPU
python -m paddle_serving_server.serve --model serving_server --port 9393 python -m paddle_serving_server.serve --model serving_server --port 9393
......
...@@ -33,8 +33,12 @@ im = preprocess(sys.argv[1]) ...@@ -33,8 +33,12 @@ im = preprocess(sys.argv[1])
fetch_map = client.predict( fetch_map = client.predict(
feed={ feed={
"image": im, "image": im,
"im_size": np.array(list(im.shape[1:])), "im_shape": np.array(list(im.shape[1:])).reshape(-1),
"scale_factor": np.array([1.0, 1.0]).reshape(-1),
}, },
fetch=["multiclass_nms_0.tmp_0"]) fetch=["save_infer_model/scale_0.tmp_1"],
batch=False)
print(fetch_map)
fetch_map["image"] = sys.argv[1] fetch_map["image"] = sys.argv[1]
postprocess(fetch_map) postprocess(fetch_map)
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册