From 6e6dc9cdee56f2e1cdb99897b29c6247a2135dc2 Mon Sep 17 00:00:00 2001 From: wjj19950828 Date: Mon, 14 Mar 2022 19:44:45 +0800 Subject: [PATCH] update lite readme --- docs/inference_model_convertor/convert2lite_api.md | 3 +++ 1 file changed, 3 insertions(+) diff --git a/docs/inference_model_convertor/convert2lite_api.md b/docs/inference_model_convertor/convert2lite_api.md index aa96911..611dcfa 100644 --- a/docs/inference_model_convertor/convert2lite_api.md +++ b/docs/inference_model_convertor/convert2lite_api.md @@ -29,6 +29,9 @@ onnx2paddle(model_path, save_dir, # lite_model_type(str)指定模型转化类型,默认为naive_buffer ``` +Notes: +- ```lite_valid_places```参数目前可支持 arm、 opencl、 x86、 metal、 xpu、 bm、 mlu、 intel_fpga、 huawei_ascend_npu、imagination_nna、 rockchip_npu、 mediatek_apu、 huawei_kirin_npu、 amlogic_npu,可以同时指定多个硬件平台(以逗号分隔,优先级高的在前),opt 将会自动选择最佳方式。如果需要支持华为麒麟 NPU,应当设置为 "huawei_kirin_npu,arm"。 + ***命令行方式*** ```shell x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model --to_lite=True --lite_valid_places=arm --lite_model_type=naive_buffer -- GitLab