未验证 提交 a834dd82 编写于 作者: J Jason 提交者: GitHub

Merge pull request #758 from wjj19950828/update_readme

Update lite readme
...@@ -29,6 +29,9 @@ onnx2paddle(model_path, save_dir, ...@@ -29,6 +29,9 @@ onnx2paddle(model_path, save_dir,
# lite_model_type(str)指定模型转化类型,默认为naive_buffer # lite_model_type(str)指定模型转化类型,默认为naive_buffer
``` ```
Notes:
- ```lite_valid_places```参数目前可支持 arm、 opencl、 x86、 metal、 xpu、 bm、 mlu、 intel_fpga、 huawei_ascend_npu、imagination_nna、 rockchip_npu、 mediatek_apu、 huawei_kirin_npu、 amlogic_npu,可以同时指定多个硬件平台(以逗号分隔,优先级高的在前),opt 将会自动选择最佳方式。如果需要支持华为麒麟 NPU,应当设置为 "huawei_kirin_npu,arm"。
***命令行方式*** ***命令行方式***
```shell ```shell
x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model --to_lite=True --lite_valid_places=arm --lite_model_type=naive_buffer x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model --to_lite=True --lite_valid_places=arm --lite_model_type=naive_buffer
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册