diff --git a/README.md b/README.md index dae8115572afc54119755f98208f2040fb0f698e..df2e8d2e4dd3a8b4ff099643640aeaa1eb18eda9 100644 --- a/README.md +++ b/README.md @@ -68,9 +68,15 @@ x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model ## 使用转换后的模型 +- 静态图: 转换后的模型包括`model_with_code`和`inference_model`两个目录。 -`model_with_code`中保存了模型参数,和转换后的python模型代码 -`inference_model`中保存了序列化的模型结构和参数,可直接使用paddle的接口进行加载,见[load_inference_model](https://www.paddlepaddle.org.cn/documentation/docs/zh/1.5/api_guides/low_level/inference.html#api-guide-inference) +`model_with_code`中保存了模型参数,和转换后的python模型静态图代码。 +`inference_model`中保存了序列化的模型结构和参数,可直接使用paddle的接口进行加载,见[paddle.static.load_inference_model](https://www.paddlepaddle.org.cn/documentation/docs/zh/2.0-rc/api/paddle/static/load_inference_model_cn.html#load-inference-model) +- 动态图: +转换后的模型包括`model.pdparams`和`x2paddle_code.py`两个文件,以及`inference_model`一个目录。 +`model.pdparams`中保存了模型参数。 +`x2paddle_code.py`是转换后的python模型动态图代码。 +`inference_model`中保存了序列化的模型结构和参数,可直接使用paddle的接口进行加载,见[paddle.static.load_inference_model](https://www.paddlepaddle.org.cn/documentation/docs/zh/2.0-rc/api/paddle/static/load_inference_model_cn.html#load-inference-model) ## 小工具 X2Paddle提供了工具解决如下问题,详见[tools/README.md](tools/README.md)