diff --git a/lite/tutorials/source_zh_cn/deploy.md b/lite/tutorials/source_zh_cn/deploy.md index c2daa60edafa3c527e51cbab1ce0e6ff5e17bb1c..be05c2a5495b939cf95773598d6df17d51eaf4f0 100644 --- a/lite/tutorials/source_zh_cn/deploy.md +++ b/lite/tutorials/source_zh_cn/deploy.md @@ -54,17 +54,25 @@ MindSpore Lite提供多种编译方式,用户可根据需要选择不同的编 ## 输出件说明 -编译完成后,进入源码的`mindspore/output`目录,可查看编译后生成的文件,命名为`MSLite-{version}-{platform}.tar.gz`。解压后,即可获得编译后的工具包。 - +编译完成后,进入源码的`mindspore/output`目录,可查看编译后生成的文件,命名为`mindspore-lite-{version}-{function}-{OS}.tar.gz`。解压后,即可获得编译后的工具包,名称为`mindspore-lite-{version}`。 + +> version:输出件版本,与所编译的MindSpore版本一致。 +> function:输出件功能,`convert`表示为转换工具的输出件,`runtime`表示为推理框架的输出件。 +> OS:输出件应部署的操作系统。 + ```bash -tar -xvf MSLite-{version}-{platform}.tar.gz +tar -xvf mindspore-lite-{version}-{function}-{OS}.tar.gz ``` 编译后的输出件一般包含以下几种,架构的选择会影响输出件的种类。 +> 编译x86可获得转换工具的输出件,编译ARM64默认可获得`arm64-cpu`的推理框架输出件,若添加`-e gpu`则获得`arm64-gpu`的推理框架输出件,编译ARM32同理。 + +编译后的输出件一般包含以下几种,架构的选择会影响输出件的种类。 + | 目录 | 说明 | x86_64 | arm64 | arm32 | | --- | --- | --- | --- | --- | -| include | 推理框架头文件 | 有 | 有 | 有 | +| include | 推理框架头文件 | 无 | 有 | 有 | | lib | 推理框架动态库 | 有 | 有 | 有 | | benchmark | 基准测试工具 | 有 | 有 | 有 | | time_profiler | 模型网络层耗时分析工具 | 有 | 有 | 有 | @@ -72,10 +80,10 @@ tar -xvf MSLite-{version}-{platform}.tar.gz | third_party | 第三方库头文件和库 | 有 | 有 | 有 | 在x86_64、ARM两种架构下,`third party`的内容不同。其中: -- x86_64:包含`flatbuffers`(FlatBuffers头文件)和`protobuf`(Protobuf头文件与动态库)。 -- ARM:包含`flatbuffers`(FlatBuffers头文件)。 +- x86_64:`protobuf`(Protobuf的动态库)。 +- ARM:`flatbuffers`(FlatBuffers头文件)。 -> 运行converter、benchmark或time_profiler目录下的工具前,都需配置环境变量,将MindSpore Lite和Protobuf的动态库所在的路径配置到系统搜索动态库的路径中。以0.6.0-beta版本为例:`export LD_LIBRARY_PATH=./MSLite-0.6.0-linux_x86_64/lib:./MSLite-0.6.0-linux_x86_64/third_party/protobuf/lib:${LD_LIBRARY_PATH}`。 +> 运行converter、benchmark或time_profiler目录下的工具前,都需配置环境变量,将MindSpore Lite和Protobuf的动态库所在的路径配置到系统搜索动态库的路径中。以0.6.0-beta版本为例:`export LD_LIBRARY_PATH=./mindspore-lite-0.6.0/lib:./mindspore-lite-0.6.0/third_party/protobuf/lib:${LD_LIBRARY_PATH}`。 ## 编译示例 @@ -112,5 +120,5 @@ git clone https://gitee.com/mindspore/mindspore.git 以0.6.0-beta版本为例,x86_64架构Release版本编译完成之后,进入`mindspore/output`目录,执行如下解压缩命令,即可获取输出件`include`、`lib`、`benchmark`、`time_profiler`、`converter`和`third_party`。 ```bash -tar -xvf MSLite-0.6.0-linux_x86_64.tar.gz +tar -xvf mindspore-lite-0.6.0-converter-ubuntu.tar.gz ``` diff --git a/lite/tutorials/source_zh_cn/use/converter_tool.md b/lite/tutorials/source_zh_cn/use/converter_tool.md index 8cc6b32cd17b2341b1f83df6241840602805b032..d42908342169d7f321e56e34916682dd709afa9a 100644 --- a/lite/tutorials/source_zh_cn/use/converter_tool.md +++ b/lite/tutorials/source_zh_cn/use/converter_tool.md @@ -37,7 +37,7 @@ MindSpore Lite提供离线转换模型功能的工具,支持多种类型的模 | 参数 | 是否必选 | 参数说明 | 取值范围 | 默认值 | | -------- | ------- | ----- | --- | ---- | | `--help` | 否 | 打印全部帮助信息。 | - | - | -| `--fmk=` | 是 | 输入模型的原始格式(可从模型文件后缀识别)。 | MS、CAFFE、TFLITE、ONNX | - | +| `--fmk=` | 是 | 输入模型的原始格式。 | MS、CAFFE、TFLITE、ONNX | - | | `--modelFile=` | 是 | 输入模型的路径。 | - | - | | `--outputFile=` | 是 | 输出模型的路径(不存在时将自动创建目录),不需加后缀,可自动生成`.ms`后缀。 | - | - | | `--weightFile=` | 转换Caffe模型时必选 | 输入模型weight文件的路径。 | - | - | diff --git a/tutorials/source_en/advanced_use/on_device_inference.md b/tutorials/source_en/advanced_use/on_device_inference.md index 4e444c623118590019222d6e181fb4f6fc9a9fee..0b5cef7eff0700c36855df60836e211e1ba7a84b 100644 --- a/tutorials/source_en/advanced_use/on_device_inference.md +++ b/tutorials/source_en/advanced_use/on_device_inference.md @@ -90,10 +90,10 @@ The compilation procedure is as follows: bash build.sh -I arm32 ``` -3. Go to the `mindspore/output` directory of the source code to obtain the compilation result. Unzip `MSLite-0.6.0-linux_x86_64.tar.gz` to get the result after building. +3. Go to the `mindspore/output` directory of the source code to obtain the compilation result. Unzip `mindspore-lite-0.6.0-converter-ubuntu.tar.gz` to get the result `mindspore-lite-0.6.0` after building. ```bash - tar xvf MSLite-0.6.0-linux_x86_64.tar.gz + tar -xvf mindspore-lite-0.6.0-converter-ubuntu.tar.gz ``` ## Use of On-Device Inference @@ -171,7 +171,7 @@ To perform on-device model inference using MindSpore, perform the following step else: print("checkpoint file does not exist.") ``` -3. In `mindspore/output/MSLite-0.6.0-linux_x86_64/converter` directory, calling MindSpore convert tool named `converter_lite`, convert model file (`.mindir`) to on_device inference model file (`.ms`). +3. In `mindspore/output/mindspore-lite-0.6.0/converter` directory, calling MindSpore convert tool named `converter_lite`, convert model file (`.mindir`) to on_device inference model file (`.ms`). ``` ./converter_lite --fmk=MS --modelFile=./lenet.mindir --outputFile=lenet ``` diff --git a/tutorials/source_zh_cn/advanced_use/on_device_inference.md b/tutorials/source_zh_cn/advanced_use/on_device_inference.md index f52aa0f6b4b85476724a32b47108be86949a568f..7fd7a75d38330922f800c9a0e07caee5d437fbc1 100644 --- a/tutorials/source_zh_cn/advanced_use/on_device_inference.md +++ b/tutorials/source_zh_cn/advanced_use/on_device_inference.md @@ -89,10 +89,10 @@ MindSpore Lite的框架主要由Frontend、IR、Backend、Lite RT、Micro构成 bash build.sh -I arm32 ``` -3. 进入源码的`mindspore/output`目录,获取编译结果`MSLite-0.6.0-linux_x86_64.tar.gz`。执行解压缩命令,获得编译后的工具包: +3. 进入源码的`mindspore/output`目录,获取编译结果`mindspore-lite-0.6.0-converter-ubuntu.tar.gz`。执行解压缩命令,获得编译后的工具包`mindspore-lite-0.6.0`: ```bash - tar xvf MSLite-0.6.0-linux_x86_64.tar.gz + tar -xvf mindspore-lite-0.6.0-converter-ubuntu.tar.gz ``` @@ -172,7 +172,7 @@ MindSpore进行端侧模型推理的步骤如下。 else: print("checkpoint file does not exist.") ``` -3. 在`mindspore/output/MSLite-0.6.0-linux_x86_64/converter`路径下,调用MindSpore端侧转换工具`converter_lite`,将模型文件(`.mindir`)转换为端侧模型文件(`.ms`)。 +3. 在`mindspore/output/mindspore-lite-0.6.0/converter`路径下,调用MindSpore端侧转换工具`converter_lite`,将模型文件(`.mindir`)转换为端侧模型文件(`.ms`)。 ``` ./converter_lite --fmk=MS --modelFile=./lenet.mindir --outputFile=lenet ```