Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleDetection
提交
1e6090d8
P
PaddleDetection
项目概览
PaddlePaddle
/
PaddleDetection
大约 1 年 前同步成功
通知
695
Star
11112
Fork
2696
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
184
列表
看板
标记
里程碑
合并请求
40
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleDetection
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
184
Issue
184
列表
看板
标记
里程碑
合并请求
40
合并请求
40
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
1e6090d8
编写于
1月 03, 2020
作者:
W
wangguanzhong
提交者:
GitHub
1月 03, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
refine doc (#163)
上级
1a843c55
变更
3
显示空白变更内容
内联
并排
Showing
3 changed file
with
10 addition
and
10 deletion
+10
-10
docs/EXPORT_MODEL.md
docs/EXPORT_MODEL.md
+4
-4
docs/INFERENCE.md
docs/INFERENCE.md
+4
-4
tools/cpp_demo.yml
tools/cpp_demo.yml
+2
-2
未找到文件。
docs/EXPORT_MODEL.md
浏览文件 @
1e6090d8
...
...
@@ -25,24 +25,24 @@ python tools/export_model.py -c configs/faster_rcnn_r50_1x.yml \
## 设置导出模型的输入大小
使用Fluid-TensorRT进行预测时,由于<=TensorRT 5.1的版本仅支持定长输入,保存模型的
`data`
层的图片大小需要和实际输入图片大小一致。而Fluid C++预测引擎没有此限制。可通过设置Test
Feed的
`image_shape`
可以修改保存模型中的输入图片大小。示例如下:
使用Fluid-TensorRT进行预测时,由于<=TensorRT 5.1的版本仅支持定长输入,保存模型的
`data`
层的图片大小需要和实际输入图片大小一致。而Fluid C++预测引擎没有此限制。可通过设置Test
Reader中
`image_shape`
可以修改保存模型中的输入图片大小。示例如下:
```
bash
# 导出FasterRCNN模型,输入是3x640x640
python tools/export_model.py
-c
configs/faster_rcnn_r50_1x.yml
\
--output_dir
=
./inference_model
\
-o
weights
=
https://paddlemodels.bj.bcebos.com/object_detection/faster_rcnn_r50_1x.tar
\
FasterRCNNTestFeed
.image_shape
=[
3,640,640]
TestReader.inputs_def
.image_shape
=[
3,640,640]
# 导出YOLOv3模型,输入是3x320x320
python tools/export_model.py
-c
configs/yolov3_darknet.yml
\
--output_dir
=
./inference_model
\
-o
weights
=
https://paddlemodels.bj.bcebos.com/object_detection/yolov3_darknet.tar
\
YoloTestFeed
.image_shape
=[
3,320,320]
TestReader.inputs_def
.image_shape
=[
3,320,320]
# 导出SSD模型,输入是3x300x300
python tools/export_model.py
-c
configs/ssd/ssd_mobilenet_v1_voc.yml
\
--output_dir
=
./inference_model
\
-o
weights
=
https://paddlemodels.bj.bcebos.com/object_detection/ssd_mobilenet_v1_voc.tar
\
SSDTestFeed
.image_shape
=[
3,300,300]
TestReader.inputs_def
.image_shape
=[
3,300,300]
```
docs/INFERENCE.md
浏览文件 @
1e6090d8
...
...
@@ -6,7 +6,7 @@
```
bash
export
CUDA_VISIBLE_DEVICES
=
0
python tools/cpp_infer.py
--model_path
=
output/yolov3_mobilenet_v1
/
--config_path
=
tools/cpp_demo.yml
--infer_img
=
demo/000000570688.jpg
--visualize
python tools/cpp_infer.py
--model_path
=
inference_model/faster_rcnn_r50_1x
/
--config_path
=
tools/cpp_demo.yml
--infer_img
=
demo/000000570688.jpg
--visualize
```
...
...
@@ -18,7 +18,7 @@ python tools/cpp_infer.py --model_path=output/yolov3_mobilenet_v1/ --config_path
4.
visualize: 是否保存可视化结果,默认保存路径为
```output/```
。
更多参数可在
```tools/cpp_demo.yml```
中查看
更多参数可在
```tools/cpp_demo.yml```
中查看
,
**设置shape时必须保持与模型导出时shape大小一致**
## Paddle环境搭建
...
...
@@ -37,6 +37,6 @@ cmake .. -DWITH_MKL=ON \
make -j20
make install
```
export LD_LIBRARY_PATH=${PATH_TO_TensorRT}:$LD_LIBRARY_PATH
```
tools/cpp_demo.yml
浏览文件 @
1e6090d8
# demo for
tensorrt
_infer.py
# demo for
cpp
_infer.py
mode
:
trt_fp32
# trt_fp32, trt_fp16, trt_int8, fluid
arch
:
RCNN
# YOLO, SSD, RCNN, RetinaNet
min_subgraph_size
:
20
# need 3 for YOLO arch
use_python_inference
:
False
# whether to use python inference
# visulize the predicted image
# visu
a
lize the predicted image
metric
:
COCO
# COCO, VOC
draw_threshold
:
0.5
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录