# X2paddle Convert2Lite API ## 目录 * [x2paddle.convert.tf2paddle](#1) * [x2paddle.convert.caffe2paddle](#2) * [x2paddle.convert.onnx2paddle](#3) * [x2paddle.convert.pytorch2paddle](#4) ## 使用X2paddle导出Padde-Lite支持格式 **背景**:如果想用Paddle-Lite运行第三方来源(TensorFlow、Caffe、ONNX、PyTorch)模型,一般需要经过两次转化。即使用X2paddle工具将第三方模型转化为PaddlePaddle格式,再使用opt将PaddlePaddle模型转化为Padde-Lite可支持格式。 **使用方法**:为了简化这一过程,X2Paddle集成了opt工具,提供一键转换功能,包括API以及命令行,以ONNX为例: ***API方式*** ```python from x2paddle.convert import onnx2paddle onnx2paddle(model_path, save_dir, convert_to_lite=True, lite_valid_places="arm", lite_model_type="naive_buffer") # model_path(str)为ONNX模型路径 # save_dir(str)为转换后模型保存路径 # convert_to_lite(bool)表示是否使用opt工具,默认为False # lite_valid_places(str)指定转换类型,默认为arm # lite_model_type(str)指定模型转化类型,默认为naive_buffer ``` Notes: - ```lite_valid_places```参数目前可支持 arm、 opencl、 x86、 metal、 xpu、 bm、 mlu、 intel_fpga、 huawei_ascend_npu、imagination_nna、 rockchip_npu、 mediatek_apu、 huawei_kirin_npu、 amlogic_npu,可以同时指定多个硬件平台(以逗号分隔,优先级高的在前),opt 将会自动选择最佳方式。如果需要支持华为麒麟 NPU,应当设置为 "huawei_kirin_npu,arm"。 ***命令行方式*** ```shell x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model --to_lite=True --lite_valid_places=arm --lite_model_type=naive_buffer ``` TensorFlow、Caffe以及Pytorch模型转换参考如下API ##

x2paddle.convert.tf2paddle

```python x2paddle.convert.tf2paddle(model_path, save_dir, define_input_shape=False, convert_to_lite=False, lite_valid_places="arm", lite_model_type="naive_buffer") ``` > 转换TensorFlow模型。 > **参数** > > > - **model_path** (str): TensorFlow pb模型路径 > > - **save_dir** (str): 转换后模型保存路径 > > - **define_input_shape** (bool): 是否指定输入大小,默认为False > > - **convert_to_lite** (bool): 是否使用opt工具转成Paddle-Lite支持格式,默认为False > > - **lite_valid_places** (str): 指定转换类型,可以同时指定多个backend(以逗号分隔),opt将会自动选择最佳方式,默认为arm > > - **lite_model_type** (str): 指定模型转化类型,目前支持两种类型:protobuf和naive_buffer,默认为naive_buffer ##

x2paddle.convert.caffe2paddle

```python x2paddle.convert.caffe2paddle(proto_file, weight_file, save_dir, caffe_proto, convert_to_lite=False, lite_valid_places="arm", lite_model_type="naive_buffer") ``` > 转换Caffe模型。 > **参数** > > > - **proto_file** (str): caffe模型的prototxt文件 > > - **weight_file** (str): caffe模型的权重文件 > > - **save_dir** (str): 转换后模型保存路径 > > - **caffe_proto** (str): 可选:由caffe.proto编译成caffe_pb2.py文件的存放路径,当存在自定义Layer时使用,默认为None > > - **convert_to_lite** (bool): 是否使用opt工具转成Paddle-Lite支持格式,默认为False > > - **lite_valid_places** (str): 指定转换类型,可以同时指定多个backend(以逗号分隔),opt将会自动选择最佳方式,默认为arm > > - **lite_model_type** (str): 指定模型转化类型,目前支持两种类型:protobuf和naive_buffer,默认为naive_buffer ##

x2paddle.convert.onnx2paddle

```python x2paddle.convert.onnx2paddle(model_path, save_dir, convert_to_lite=False, lite_valid_places="arm", lite_model_type="naive_buffer") ``` > 转换ONNX模型。 > **参数** > > > - **model_path** (str): TensorFlow pb模型路径 > > - **save_dir** (str): 转换后模型保存路径 > > - **convert_to_lite** (bool): 是否使用opt工具转成Paddle-Lite支持格式,默认为False > > - **lite_valid_places** (str): 指定转换类型,可以同时指定多个backend(以逗号分隔),opt将会自动选择最佳方式,默认为arm > > - **lite_model_type** (str): 指定模型转化类型,目前支持两种类型:protobuf和naive_buffer,默认为naive_buffer ##

x2paddle.convert.pytorch2paddle

```python x2paddle.convert.pytorch2paddle(module, save_dir, jit_type="trace", input_examples=None, convert_to_lite=False, lite_valid_places="arm", lite_model_type="naive_buffer") ``` > 转换Pytorch模型。 > **参数** > > > - **module** (torch.nn.Module): PyTorch的Module > > - **save_dir** (str): 转换后模型保存路径 > > - **jit_type** (str): 转换方式。目前有两种:trace和script,默认为trace > > - **input_examples** (list[torch.tensor]): torch.nn.Module的输入示例,list的长度必须与输入的长度一致。默认为None。 > > - **convert_to_lite** (bool): 是否使用opt工具转成Paddle-Lite支持格式,默认为False > > - **lite_valid_places** (str): 指定转换类型,可以同时指定多个backend(以逗号分隔),opt将会自动选择最佳方式,默认为arm > > - **lite_model_type** (str): 指定模型转化类型,目前支持两种类型:protobuf和naive_buffer,默认为naive_buffer