From 40ab6a1043a1e7c43bb83b8ec5ed7d2518366269 Mon Sep 17 00:00:00 2001 From: Chang Xu Date: Tue, 5 Jul 2022 11:00:24 +0800 Subject: [PATCH] Fix Imagenet Demo (#1247) --- .../image_classification/README.md | 21 ++++++++++--------- .../configs/MobileNetV1/qat_dis.yaml | 2 +- .../image_classification/configs/infer.yaml | 1 - .../image_classification/eval.py | 3 --- 4 files changed, 12 insertions(+), 15 deletions(-) diff --git a/example/auto_compression/image_classification/README.md b/example/auto_compression/image_classification/README.md index 438bd501..4332dad0 100644 --- a/example/auto_compression/image_classification/README.md +++ b/example/auto_compression/image_classification/README.md @@ -123,18 +123,19 @@ python infer.py --config_path="configs/infer.yaml" ``` 在配置文件```configs/infer.yaml```中有以下字段用于配置预测参数: -- ```Global.infer_imgs```:待预测的图片文件路径 -- ```Global.inference_model_dir```:inference 模型文件所在目录,该目录下需要有文件 .pdmodel 和 .pdiparams 两个文件 -- ```Global.use_tensorrt```:是否使用 TesorRT 预测引擎 -- ```Global.use_gpu```:是否使用 GPU 预测 -- ```Global.enable_mkldnn```:是否启用```MKL-DNN```加速库,注意```enable_mkldnn```与```use_gpu```同时为```True```时,将忽略```enable_mkldnn```,而使用```GPU```预测 -- ```Global.use_fp16```:是否启用```FP16``` -- ```PreProcess```:用于数据预处理配置 -- ```PostProcess```:由于后处理配置 -- ```PostProcess.Topk.class_id_map_file```:数据集 label 的映射文件,默认为```./images/imagenet1k_label_list.txt```,该文件为 PaddleClas 所使用的 ImageNet 数据集 label 映射文件 +- ```inference_model_dir```:inference 模型文件所在目录,该目录下需要有文件 .pdmodel 和 .pdiparams 两个文件 +- ```model_filename```:inference_model_dir文件夹下的模型文件名称 +- ```params_filename```:inference_model_dir文件夹下的参数文件名称 +- ```batch_size```:预测一个batch的大小 +- ```image_size```:输入图像的大小 +- ```use_tensorrt```:是否使用 TesorRT 预测引擎 +- ```use_gpu```:是否使用 GPU 预测 +- ```enable_mkldnn```:是否启用```MKL-DNN```加速库,注意```enable_mkldnn```与```use_gpu```同时为```True```时,将忽略```enable_mkldnn```,而使用```GPU```预测 +- ```use_fp16```:是否启用```FP16``` +- ```use_int8```:是否启用```INT8``` 注意: -- 请注意模型的输入数据尺寸,如InceptionV3输入尺寸为299,所以部分模型需要修改参数:```PreProcess.resize_short```, ```PreProcess.resize``` +- 请注意模型的输入数据尺寸,如InceptionV3输入尺寸为299,部分模型需要修改参数:```image_size``` - 如果希望提升评测模型速度,使用 ```GPU``` 评测时,建议开启 ```TensorRT``` 加速预测,使用 ```CPU``` 评测时,建议开启 ```MKL-DNN``` 加速预测 - 若使用 TesorRT 预测引擎,需安装 ```WITH_TRT=ON``` 的Paddle,下载地址:[Python预测库](https://paddleinference.paddlepaddle.org.cn/master/user_guides/download_lib.html#python) diff --git a/example/auto_compression/image_classification/configs/MobileNetV1/qat_dis.yaml b/example/auto_compression/image_classification/configs/MobileNetV1/qat_dis.yaml index 8b9aae31..b0fff145 100644 --- a/example/auto_compression/image_classification/configs/MobileNetV1/qat_dis.yaml +++ b/example/auto_compression/image_classification/configs/MobileNetV1/qat_dis.yaml @@ -4,7 +4,7 @@ Global: model_filename: inference.pdmodel params_filename: inference.pdiparams batch_size: 32 - data_dir: /ILSVRC2012 + data_dir: ./ILSVRC2012 Distillation: alpha: 1.0 diff --git a/example/auto_compression/image_classification/configs/infer.yaml b/example/auto_compression/image_classification/configs/infer.yaml index c877526b..b8e22e8c 100644 --- a/example/auto_compression/image_classification/configs/infer.yaml +++ b/example/auto_compression/image_classification/configs/infer.yaml @@ -13,5 +13,4 @@ ir_optim: True use_tensorrt: True gpu_mem: 8000 enable_profile: False -benchmark: True diff --git a/example/auto_compression/image_classification/eval.py b/example/auto_compression/image_classification/eval.py index ccb02fdb..3d1d63a1 100644 --- a/example/auto_compression/image_classification/eval.py +++ b/example/auto_compression/image_classification/eval.py @@ -14,9 +14,6 @@ import os import sys -sys.path[0] = os.path.join( - os.path.dirname("__file__"), os.path.pardir, os.path.pardir) -print(sys.path[0]) import argparse import functools from functools import partial -- GitLab