diff --git a/docs/inference_model_convertor/convert2lite_api.md b/docs/inference_model_convertor/convert2lite_api.md index aa96911cfe30b432942092a2352afe132bc4d543..611dcfa6475e48e446b6a1f375ada5c795a26e35 100644 --- a/docs/inference_model_convertor/convert2lite_api.md +++ b/docs/inference_model_convertor/convert2lite_api.md @@ -29,6 +29,9 @@ onnx2paddle(model_path, save_dir, # lite_model_type(str)指定模型转化类型,默认为naive_buffer ``` +Notes: +- ```lite_valid_places```参数目前可支持 arm、 opencl、 x86、 metal、 xpu、 bm、 mlu、 intel_fpga、 huawei_ascend_npu、imagination_nna、 rockchip_npu、 mediatek_apu、 huawei_kirin_npu、 amlogic_npu,可以同时指定多个硬件平台(以逗号分隔,优先级高的在前),opt 将会自动选择最佳方式。如果需要支持华为麒麟 NPU,应当设置为 "huawei_kirin_npu,arm"。 + ***命令行方式*** ```shell x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model --to_lite=True --lite_valid_places=arm --lite_model_type=naive_buffer